477 resultados para la question démocratique


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le droit de la propriété intellectuelle présente, depuis quelques années, un intérêt particulier à l'évolution de la recherche sur les plantes. Ceci s'est traduit, au plan international, par l'adoption de plusieurs instruments visant à assurer une meilleure protection des investissements consentis dans ce domaine. Il s'agit notamment de la Convention de l'UPOV, qui s'inscrit dans une logique de protection par la voie sui generis avec la possibilité de délivrance de certificat d'obtention végétale aux sélectionneurs; de l'Accord ADPIC, qui, en plus de recommander un système sui generis efficace, ouvre l'option de protection par brevet ou en définitive par le cumul des deux systèmes; de la Convention sur la Diversité Biologique (CDB) et du Traité de la FAO portant sur les ressources phytogénétiques pour l'alimentation et l'agriculture, qui, favorables aux deux précédentes formes de protection, demandent que soient prises en compte des considérations relatives aux droits souverains des pays sur leurs ressources végétales, au partage des bénéfices, etc. Au plan régional, on distingue, entre autres, l'initiative de l'Afrique, visant à assurer la protection des plantes suivant une logique partagée entre l'alignement sur les normes internationales existantes (Accord de Bangui) ou l'institution d'une autre législation originale qui reflète les réalités et préoccupations du continent (Loi modèle). Il apparaît donc qu'il existe plusieurs instruments pour cerner la même réalité. Ceci est forcément la source de quelques difficultés qui sont d'ordre conceptuel, socioéconomique, environnemental et juridique. Pour les pallier, il est important que certaines conditions soient satisfaites afin d'harmoniser les points de vue entre les différents acteurs concernés par la question et d'assurer une appropriation conséquente des instruments adoptés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse s’ouvre avec des commentaires du siècle dernier sur les opinions de Luther à propos de l’autorité du gouvernement et de l’Église, ainsi que sur la nature humaine et la fonction de la loi. Je présente ensuite où ces critiques situent Luther par rapport à la tradition scholastique et par rapport à la tradition romaine au sein de l’Église. Puis, j’explore les œuvres de Luther pour mettre en lumière ses arguments concernant l’Église, la source de son autorité, ainsi que la relation de celle-ci avec les gouvernements, autrement dit les autorités temporelles. De là, je m’intéresse à la comparaison que le réformateur fait entre la place de l’Église dans la société et celle de l’autorité temporelle. Enfin, j’analyse les écrits de Luther à propos de deux évènements concernant la construction du Royaume de Dieu et plus précisément, dans quelle mesure l’Église dépend, ou non, des autorités temporelles pour construire ce Royaume. Nous allons trouver une réponse surprenante à la question de comment l’église est indépendante de l’autorité temporelle dans l’ouvrage spécifique au royaume de Dieu. Le but de ma thèse est de répondre à certains critiques qui reprochent à Luther de s’appuyer sur l’autorité temporelle pour établir l’Église, et par conséquent de donner au temporel le contrôle sur le spirituel. Nous découvrirons que Luther tire son autorité des Écritures. Nous découvrirons aussi les conséquences que cette autorité a sur sa philosophie politique, c'est-à-dire l’importance de la soumission aux autorités gouvernantes en même temps que la libération des individus de la tyrannie d’une fausse doctrine.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Depuis la rentrée scolaire de septembre 2002, les écoles primaires québécoises doivent composer avec une nouvelle organisation des programmes ainsi qu’avec de nouveaux contenus. Au premier cycle, en univers social, la compétence visée est « Construire sa représentation de l’espace, du temps et de la société » (MEQ, 2001). Or, nous savons que, pour bâtir un enseignement qui a pour but de guider un individu dans la construction de sa représentation, il est nécessaire d’avoir conscience de ses représentations initiales de l’objet. Mais, quelles sont les représentations du temps des élèves de maternelle et de premier cycle du primaire au Québec? C’est la question que nous nous posons dans cette thèse. Pour y répondre, nous avons cherché à circonscrire le temps dont il est question en proposant une réflexion théorique sur son essence et en analysant les sens qu’il prend dans le programme. Puis, nous avons mis en place une méthodologie et les outils lui étant nécessaires pour dégager les dimensions de représentations présentes dans les discours de 164 sujets de maternelle, de première et de deuxième année, répartis sur 13 classes d’écoles de la grande région montréalaise. À l’issue de cette recherche, nous pouvons proposer aux chercheurs et aux enseignants une nouvelle liste de dimensions de représentations du temps adaptée au contexte québécois actuel. Cette liste nous permet de dépeindre le paysage des représentations du temps des élèves des classes que nous avons visitées. Enfin, riche de nos résultats, nous pouvons émettre quelques remarques et principes pour l’enseignement du temps en classe.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le contexte particulier du dopage suscite de nombreuses questions à l'égard des obligations et de la responsabilité des médecins. Suivant le Code médical du Mouvement olympique (2005), les médecins doivent respecter les principes de l'éthique médicale et ceux de l'éthique sportive, comme le fairplay. Il arrive parfois que l'éthique sportive entre en conflit avec l'éthique médicale. Les médecins sont alors confrontés à d'importants dilemmes qui peuvent engager leur responsabilité professionnelle et civile. Ces dilemmes se situent notamment au niveau de l'obligation de soins et du secret professionnel. Par exemple, les médecins peuvent-ils prescrire des médicaments pour contrer les effets néfastes du dopage afin de préserver la santé des athlètes ? La question de la recherche sur l'amélioration de la performance est également préoccupante. En raison du caractère clandestin de cette recherche, il y a lieu de se demander si les médecins qui y participent respectent leurs obligations professionnelles. L'analyse des principaux instruments normatifs applicables en l'espèce démontre que les médecins ne doivent pas être placés dans une situation telle qu'ils doivent refuser de suivre des athlètes de crainte d'être accusés de dopage. De plus, le secret professionnel devrait être maintenu lorsqu'un médecin suit un athlète dopé afin de préserver la relation de confiance. Finalement, l'analyse du contexte de la recherche portant sur l'amélioration de la performance révèle que les médecins ne respectent pas toujours leurs obligations. Les médecins fautifs risquent donc d'engager leur responsabilité professionnelle et civile et de faire face à des sanctions sévères.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans un contexte d'instabilité économique, force est de constater que les remises en question du libéralisme économique s'intensifient, mettant ainsi l'accent sur l'importance de la réglementation pour la protection des investisseurs ainsi que l'efficience des marchés financiers. Souvent associés aux conséquences d'un manque d'encadrement, les fonds de couverture représentent des cibles de choix pour ceux qui cherchent à expliquer l'effondrement majeur des marchés, tout en prônant un interventionnisme accru des autorités gouvernementales. Pour mieux comprendre les tenants et aboutissants de cette industrie, la présente étude propose une vue d'ensemble des caractéristiques fondamentales des fonds de couverture, tant sous l'angle de leur structure organisationnelle que de leur encadrement réglementaire. À cet égard, il importe de jauger les principaux enjeux découlant des règles applicables à l'administration d'un fonds, particulièrement sur le plan de la transparence informationnelle et au niveau de la gouvernance interne. Ces deux éléments constituant les pierres angulaires de la présente analyse, notre étude offrira finalement une réflexion sur l'approche réglementaire à privilégier, et ce, en tenant compte des particularités des fonds de couverture. Dans un même ordre d'idées, le rôle des divers intermédiaires professionnels sera abordé afin d'élargir notre compréhension de la question sous étude. L'objet de cette étude n'est pas d'apporter une solution complète et définitive à ces enjeux, mais bien d'offrir des pistes de réflexions pouvant servir de balises à une étude subséquente de la question, laquelle devra par ailleurs tenir compte du rôle assumé par les fonds de couverture ainsi que du statut particulier qu'ils occupent sur les marchés financiers.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

John B. Davis explores the question of what the economic individual is. He bases his considerations of orthodox economics on the assumption that these theories implicitly rely on a conception of the individual that has its origin in Locke’s idea of the self as subjective inwardness. Economic history then is the attempt to deal with Locke’s inherent problems that this view involved. If neoclassical economics still has aspects of human psychology, mainstream economics dropped the subjective concept of the individual out of their considerations. However, Davis demonstrates that even the neoclassical concept of the individual fails to pass the existence test of individual identity. The latter is an idea developed in analogy to philosophers’ concern about personal identity and examines if the individual can be distinguished among different individuals and if he or she can be reidentified as the selfsame individual through time. The failure of the theory of the individual in orthodox economics led Davis to develop a concept of a socially embedded individual in accordance with heterodox accounts of economics. He submits this conception to the same test of individual identity. It appears that the socially embedded individual can be said to hold an identity in specific circumstances.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le débat sur le travail des enfants a pris une ampleur considérable ces vingt dernières années. Les politiques se sont majoritairement orientées vers la promotion de l’éducation. Pourtant, le débat n’a guère fait de place à la question des enfants des rues. Intégrer cette catégorie d’enfants au débat pose de nouvelles questions. En particulier, l’éducation doit prendre une forme non violente et des espaces de travail doivent être ouverts pour les enfants des rues.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La présente contribution examine les fondements normatifs ainsi que les implications éthiques du droit à l’eau, tel qu’il fut reconnu en 2002 par le comité onusien des droits économiques, sociaux et culturels. Il sera défendu que le droit à l’eau potable peut être justifié en tant que droit moral fondamental, de par son caractère indispensable en vue de la garantie des conditions basiques de survie. Cet état de fait, cependant, s’avère moins évident au vue d’un droit à l’eau d’usage non-domestique. Ici, la discussion se rapproche des débats accompagnant le concept beaucoup plus complexe des droits sociaux et économiques. Par rapport à ce groupe de droits, la question de l’allocation est des plus controversées: à qui incombe-t-il de garantir leur respect? Dans le but d’éviter cette problématique d’allocation, le présent essai soulèvera la question de savoir, si la limitation de l’accès à l’eau peut être conçue comme une violation d’autres droits moraux: bien qu’il y ait des cas où des entreprises transnationales déploient des activités nuisibles à l’égard des populations pauvres en polluant sciemment leurs ressources en eau ou en initiant et en exécutant des stratégies de privatisation les privant de leurs droits, la crise globale de l’eau ne saura être rattachée uniquement aux effets de la mondialisation. Plutôt, l’on reconnaîtra la nécessité d’efforts positifs et soutenus de la part des pays développés en vue de la réalisation d’un approvisionnement suffisant en eau pour tous.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans un monde devenu séculier et où la tradition chrétienne est en recul, on est en droit de se poser la question de la pertinence des textes bibliques. En lien avec cette situation, on peut aussi se demander quelle représentation de Dieu émerge de la façon dont on accueille ces textes. Ce type de questionnement sous-tend l’intérêt que peut représenter une approche processuelle des textes bibliques, approche encore peu connue dans le monde francophone. Celle-ci est-elle en mesure d’apporter une certaine nouveauté dans la vision de Dieu généralement proposée en milieu chrétien ? Pour répondre à cela, il a semblé pertinent de tenter l’exercice à partir d’un texte englobant et fondateur. Genèse 2, connu pour raconter la création d’Adam et Ève, est porteur d’images presque stéréotypées à force d’avoir été lu et remâché. À ce titre, il a paru particulièrement approprié. Mais, avant même d’explorer le texte sous un angle processuel, il s’est avéré indispensable de commencer cette démarche par une traduction personnelle du texte hébreu, à partir et avec l’aide d’une analyse syntaxique et textuelle, dont on verra qu’elles ont ouvert le texte à de nouvelles hypothèses de traduction, de nouvelles nuances, comme autant de pistes à confronter à une théologie processuelle. Enfin, cette analyse ne peut se faire sans être en dialogue avec différents commentaires, exégétiques ou non, afin de souligner les convergences comme les divergences rencontrées au fil de la recherche et de la réflexion.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Occupé depuis près de 10 000 ans, le Témiscouata est un lieu clé pour mieux comprendre la préhistoire du Québec, en raison de son emplacement stratégique entre l’Atlantique et la vallée du Saint-Laurent et de la cinquantaine de sites archéologiques connus dans la région. Le site CjEd-8 est le seul site associé à l’Archaïque supérieur (6 000 à 4 000 ans avant aujourd’hui) connu dans la région. Cette recherche palethnographique porte sur l’analyse de la collection lithique du site archéologique CjEd-8. Nos questions de recherche sont les suivantes : quel était le mode de vie et les activités des occupants du site CjEd-8? Quel était leur environnement et comment s’y sont-ils adapté? Comment l’espace était-il utilisé sur le site? Comment ce site se compare-t-il aux autres sites de l’Archaïque supérieur au Québec et dans le nord-est américain? Est-il possible de relier l’occupation du site CjEd-8 à un plus vaste cadre régional ou culturel, comme un réseau d’interaction, par exemple? Nous avons effectué une analyse techno-morphologique individuelle de tous les outils et du débitage de la collection. Nous avons pu constater que tous les stades de réduction lithique (initial, intermédiaire et final) sont présents sur le site CjEd-8. Les matières premières locales sont représentées dans tous ces stades de réduction, bien que les matières premières exotiques soient surtout présentes au sein du stade initial de réduction, davantage que les matières premières locales. Ceci laisse croire que le dégrossissement initial des blocs et galets de matière première locale se faisait ailleurs que sur le site, fort probablement sur les carrières de chert de la région, et que des matières exotiques ont aussi été travaillées sur le site. Des activités de taille ont eu lieu sur les deux zones du site, probablement autour de deux foyers distincts. Les quelques individus présents y sont demeurés très brièvement, semblent avoir effectué un nombre limité d’activités et sont peut-être repassés quelques temps après. L’Archaïque supérieur est caractérisé par une augmentation de la population et par l’intensification des interactions et de l’appartenance régionale. Or, il semblerait que ce soit l’inverse que l’on observe archéologiquement au Témiscouata. L’assemblage de CjEd-8 ne présente aucune ressemblance particulière avec les sites associés à l’Archaïque supérieur au Québec, bien que pour presque tous ces sites, on constate une exploitation importante des matières premières locales (même si ces dernières sont de qualité moyenne), combinée à l’exploitation de matières premières exotiques de sources très éloignées. L’industrie du quartz, importante dans la plupart des sites de l’Archaïque supérieur, se reflète très peu sur CjEd-8. Bien qu’il nous soit impossible d’associer l’occupation du site CjEd-8 à une tradition culturelle précise, cela ne signifie pas que ses occupants n’étaient pas en interaction avec l’une ou l’autre des entités culturelles de la fin de l’Archaïque, que ce soit avec les groupes de la région de Quoddy, de la Gaspésie, de la Vallée du Saint-Laurent, de l’Outaouais, de la Haute Côte nord, du Vermont, de l’État de New York et de l’intérieur du Maine. La question des modes de subsistance des occupants de CjEd-8 n’a pas été soulevée lors de nos analyses. Nous savons toutefois que les occupants du Témiscouata avaient alors accès à une faune riche et diversifiée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le rire est un comportement humain indiscutablement universel. Abondamment traité par la psychologie et les neurosciences, il demeure néanmoins le laissé-pour-compte de l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien le caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent évacuée. Or, toute tentative sérieuse de comprendre ce comportement requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une analyse de cinq hypothèses ultimes sur le rire et l’humour, desquelles sont extraites des prédictions qui sont confrontées à des données empiriques provenant de disciplines diverses. En guise de conclusion, il est tenté de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce travail présente une technique de simulation de feux de forêt qui utilise la méthode Level-Set. On utilise une équation aux dérivées partielles pour déformer une surface sur laquelle est imbriqué notre front de flamme. Les bases mathématiques de la méthode Level-set sont présentées. On explique ensuite une méthode de réinitialisation permettant de traiter de manière robuste des données réelles et de diminuer le temps de calcul. On étudie ensuite l’effet de la présence d’obstacles dans le domaine de propagation du feu. Finalement, la question de la recherche du point d’ignition d’un incendie est abordée.