19 resultados para Fundamentals in linear algebra
Resumo:
In a linear production model, we characterize the class of efficient and strategy-proof allocation functions, and the class of efficient and coalition strategy-proof allocation functions. In the former class, requiring equal treatment of equals allows us to identify a unique allocation function. This function is also the unique member of the latter class which satisfies uniform treatment of uniforms.
Resumo:
In the literature on tests of normality, much concern has been expressed over the problems associated with residual-based procedures. Indeed, the specialized tables of critical points which are needed to perform the tests have been derived for the location-scale model; hence reliance on available significance points in the context of regression models may cause size distortions. We propose a general solution to the problem of controlling the size normality tests for the disturbances of standard linear regression, which is based on using the technique of Monte Carlo tests.
Resumo:
It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.
Resumo:
We derive conditions that must be satisfied by the primitives of the problem in order for an equilibrium in linear Markov strategies to exist in some common property natural resource differential games. These conditions impose restrictions on the admissible form of the natural growth function, given a benefit function, or on the admissible form of the benefit function, given a natural growth function.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
Ce mémoire porte sur l’articulation de la morale en droit. Il soulève la question de l’objectivité de la morale dans la théorie du droit de Ronald Dworkin. Celui-ci doit pouvoir établir les critères de justification de la morale pour asseoir son autorité en droit. Il conteste la validité de la règle de reconnaissance de Hart qui exclue la morale comme source et comme justification inhérente au droit. Dans son dernier livre, Justice for Hedgehogs (2011), Dworkin présente sa thèse de l’unité de valeur entre le droit, la morale personnelle et la morale politique. Pour réussir à intégrer la morale au droit, il doit en défendre l’objectivité. Il développe une conception de la rationalité pratique et de la vérité propre à la morale. Sa conception de la rationalité pratique est rapprochée de celle d’Alasdair MacIntyre. Celui-ci rejette la prétention issue des Lumières d’une rationalité pratique universelle et neutre. Il développe une conception de la rationalité pratique fondée sur le concept de tradition d’investigation. Il fait l’histoire des principales traditions d’investigation depuis l’antiquité jusqu’à aujourd’hui. Il considère la tradition aristotélicienne supérieure, celle-ci réussissant mieux à donner objectivité et intelligibilité à la morale. Des points de convergence ou de divergence sont identifiés dans les conceptions de la morale de Dworkin et de MacIntyre. Ce rapprochement porte sur leurs positions respectives face aux principaux fondements théoriques en philosophie morale, leurs conceptions de la rationalité pratique et leurs définitions des notions de droit et de justice.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La migration internationale d’étudiants est un investissement couteux pour les familles dans beaucoup de pays en voie de développement. Cependant, cet investissement est susceptible de générer des bénéfices financiers et sociaux relativement importants aux investisseurs, tout autant que des externalités pour d’autres membres de la famille. Cette thèse s’intéresse à deux aspects importants de la migration des étudiants internationaux : (i) Qui part? Quels sont les déterminants de la probabilité de migration? (ii) Qui paie? Comment la famille s’organise-t-elle pour couvrir les frais de la migration? (iii) Qui y gagne? Ce flux migratoire est-il au bénéfice du pays d’origine? Entreprendre une telle étude met le chercheur en face de défis importants, notamment, l’absence de données complètes et fiables; la dispersion géographique des étudiants migrants en étant la cause première. La première contribution importante de ce travail est le développement d’une méthode de sondage en « boule de neige » pour des populations difficiles à atteindre, ainsi que d’estimateurs corrigeant les possibles biais de sélection. A partir de cette méthodologie, j’ai collecté des données incluant simultanément des étudiants migrants et non-migrants du Cameroun en utilisant une plateforme internet. Un second défi relativement bien documenté est la présence d’endogénéité du choix d’éducation. Nous tirons avantage des récents développements théoriques dans le traitement des problèmes d’identification dans les modèles de choix discrets pour résoudre cette difficulté, tout en conservant la simplicité des hypothèses nécessaires. Ce travail constitue l’une des premières applications de cette méthodologie à des questions de développement. Le premier chapitre de la thèse étudie la décision prise par la famille d’investir dans la migration étudiante. Il propose un modèle structurel empirique de choix discret qui reflète à la fois le rendement brut de la migration et la contrainte budgétaire liée au problème de choix des agents. Nos résultats démontrent que le choix du niveau final d’éducation, les résultats académiques et l’aide de la famille sont des déterminants importants de la probabilité d’émigrer, au contraire du genre qui ne semble pas affecter très significativement la décision familiale. Le second chapitre s’efforce de comprendre comment les agents décident de leur participation à la décision de migration et comment la famille partage les profits et décourage le phénomène de « passagers clandestins ». D’autres résultats dans la littérature sur l’identification partielle nous permettent de considérer des comportements stratégiques au sein de l’unité familiale. Les premières estimations suggèrent que le modèle « unitaire », où un agent représentatif maximise l’utilité familiale ne convient qu’aux familles composées des parents et de l’enfant. Les aidants extérieurs subissent un cout strictement positif pour leur participation, ce qui décourage leur implication. Les obligations familiales et sociales semblent expliquer les cas de participation d’un aidant, mieux qu’un possible altruisme de ces derniers. Finalement, le troisième chapitre présente le cadre théorique plus général dans lequel s’imbriquent les modèles développés dans les précédents chapitres. Les méthodes d’identification et d’inférence présentées sont spécialisées aux jeux finis avec information complète. Avec mes co-auteurs, nous proposons notamment une procédure combinatoire pour une implémentation efficace du bootstrap aux fins d’inférences dans les modèles cités ci-dessus. Nous en faisons une application sur les déterminants du choix familial de soins à long terme pour des parents âgés.
Resumo:
Objectif. L’objectif est de comprendre comment les intervenants en relation d’aide et les agents des forces de l’ordre composent avec la violence au travail et le stress lié à l’imputabilité. Un cadre théorique basé sur l’identité professionnelle est proposé afin de comprendre la modulation de la santé psychologique au travail et testé via le Professional Quality of Life des intervenants en protection de la jeunesse. Les facteurs de prédiction de la banalisation de la violence au travail et des impacts psychologiques de cette banalisation sont également étudiés. Méthodologie. Un sondage mené auprès d’un échantillon représentatif constitué de 301 intervenants en protection de la jeunesse a permis d’examiner le Professional Quality of Life. Les effets de l’exposition à la violence en milieu de travail, à l’exposition au matériel traumatique et du stress lié à l’imputabilité sur la fatigue de compassion ont été analysés à l’aide d’équation structurelle. Les effets indirects attribuables au genre, au soutien organisationnel perçu, à l’adhésion à l’identité professionnelle, aux stratégies d’adaptation et à la confiance en ses moyens pour gérer un client agressif ont été mesurés. Pour l’examen des facteurs de prédiction de la banalisation de la violence au travail, les résultats d’un sondage mené auprès de 1141 intervenants en relation d’aide et des forces de l’ordre ont été analysés à l’aide de régression linéaire. L’analyse des réponses des 376 intervenants de cet échantillon ayant rapporté avoir été perturbé par un acte de violence au travail a permis de mesurer l’impact de la banalisation sur les conséquences psychologiques suite à une victimisation au travail. Les effets indirects attribuables à la banalisation de la violence ont été mesurés. Des analyses différenciées en fonction du sexe ont également été menées. Résultats. L’exposition à la violence, le sentiment d’imputabilité et l’évitement amplifiaient la fatigue de compassion chez les intervenants en protection de la jeunesse sondés. Les attitudes masculines, l’adhésion à l’identité professionnelle, la confiance en ses moyens pour gérer les clients agressifs l’atténuaient. Quant aux facteurs de prédiction de la banalisation de la violence au travail, les participants masculins étaient plus enclins que les femmes à la normaliser. Les agents des forces de l’ordre percevaient davantage la violence comme tabou que les intervenants en relation d’aide. Les facteurs organisationnels avaient tous un effet négatif sur le tabou entourant la violence au travail. Finalement, l’âge, les victimisations antérieures, les blessures graves et percevoir la violence au travail comme un tabou augmentaient le nombre de conséquences psychologiques suite à une victimisation. Les analyses différenciées en fonction du sexe ont identifié des facteurs de prédiction spécifiques aux hommes et aux femmes. Implications. Lors de déploiement de stratégies organisationnelles afin d’aider les employés à gérer avec les stress liés au travail, les organisations doivent considérer l’identité professionnelle de leur travailleur ainsi que des différences en fonction du sexe et du genre.
Resumo:
Domaine en plein développement, le transfert des connaissances (TC) se définit, comme l’ensemble des activités, des mécanismes et des processus favorisant l’utilisation de connaissances pertinentes (tacites et empiriques) par un public cible tel que les intervenants psychosociaux. Cette recherche vise à améliorer l’efficacité des méthodes linéaires écrites de TC en identifiant mieux les besoins d’information des intervenants en protection de la jeunesse. Notons que les méthodes linéaires écrites de TC désignent des outils d’information écrits unidirectionnels tels que les revues, les publications, les sites Internet, etc. Le premier objectif est de déterminer les catégories de besoins exprimés par les intervenants, c’est-à-dire déterminer si les besoins rapportés par des intervenants se regroupent en types ou sortes de besoins. Le deuxième objectif est d’établir l’importance relative de chacune de ces catégories. Enfin, cette étude vise à déterminer si ces besoins diffèrent selon les caractéristiques des intervenants ou de l’environnement. Deux facteurs sont étudiés, l’expérience de l’intervenant et la direction pour laquelle celui-ci travaille (Direction des services milieu à l’enfance ou Direction des services milieu à l’adolescence et ressources). Un devis mixte séquentiel exploratoire a été développé. Lors de la première étape, une analyse thématique a été effectuée à partir des réponses à une question ouverte posée aux membres de trois équipes et à partir d’un document résumant les requêtes effectuées auprès de l’équipe de la bibliothèque du Centre jeunesse de Montréal. Les résultats permettent de répondre au premier objectif de ce mémoire. En effet, les analyses ont permis de créer un arbre thématique comprenant 42 éléments classés hiérarchiquement. Les besoins se regroupent en deux thèmes généraux, soit les besoins qui concernent les « opérations » (c’est-à-dire l’action de l’intervenant) et les besoins concernant les « systèmes » (c’est-à-dire les éléments sur lesquels peuvent porter l’intervention). Cette dernière catégorie se subdivise entre l’usager, ses environnements et le contexte culturel et sociétal. Lors de la deuxième étape, une analyse de la variance (ANOVA) et une analyse de variance multivariée (MANOVA) ont été effectuées à partir des réponses de 82 intervenants à un questionnaire en ligne structuré selon les catégories de besoins d’informations déterminées à l’étape qualitative précédente. Les résultats permettent de répondre au deuxième objectif de ce mémoire et de mesurer le degré de force ou d’importance de chacune des catégories de besoins, identifiées lors de la première étape, selon les intervenants eux-mêmes. Les besoins ont ainsi pu être classés par ordre décroissant d’importance. Il a été possible de définir un groupe de neuf besoins prioritaires (portant sur l’animation, les caractéristiques personnelles des usagers, les caractéristiques des parents et leurs relations avec l’enfant, ainsi que l’intervention interculturelle et les problématiques sociales) et un autre groupe de sept besoins moins élevés (portant sur les autres « opérations » et les services professionnels dont a bénéficié l’usager). L’interprétation de ces résultats indique que les besoins en TC des intervenants se limitent aux informations qui concernent directement leur mandat, leur pratique ou les problématiques rencontrées. Les résultats de cette étape ont également permis de répondre au troisième objectif de ce mémoire. En effet, les résultats indiquent que l’importance ressentie des besoins (sur une échelle de 1 à 7) ne diffère pas significativement selon la direction pour laquelle travaille l’intervenant, mais elle diffère significativement selon l’expérience de ce dernier (moins de 10 ans ou plus de 10 ans). Cette différence est discutée et plusieurs hypothèses explicatives sont envisagées telles que l’accumulation de connaissances liée à l’expérience ou les changements cognitifs liés à l’expertise. Enfin, dans la discussion, les résultats sont mis en contexte parmi les autres types de besoins existants et les autres caractéristiques des connaissances qui doivent être prises en considération. Cela permet de formuler des recommandations pour améliorer la production de documents écrits ainsi que pour poursuivre la recherche dans le domaine de l’évaluation des besoins de TC. Bien que présentant certaines limites méthodologiques, cette recherche ouvre la voie au développement de meilleurs outils d’évaluation des besoins et à l’amélioration des techniques de transfert linéaires écrites.
Resumo:
In this paper, we study the asymptotic distribution of a simple two-stage (Hannan-Rissanen-type) linear estimator for stationary invertible vector autoregressive moving average (VARMA) models in the echelon form representation. General conditions for consistency and asymptotic normality are given. A consistent estimator of the asymptotic covariance matrix of the estimator is also provided, so that tests and confidence intervals can easily be constructed.