968 resultados para la question démocratique


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans un contexte d'instabilité économique, force est de constater que les remises en question du libéralisme économique s'intensifient, mettant ainsi l'accent sur l'importance de la réglementation pour la protection des investisseurs ainsi que l'efficience des marchés financiers. Souvent associés aux conséquences d'un manque d'encadrement, les fonds de couverture représentent des cibles de choix pour ceux qui cherchent à expliquer l'effondrement majeur des marchés, tout en prônant un interventionnisme accru des autorités gouvernementales. Pour mieux comprendre les tenants et aboutissants de cette industrie, la présente étude propose une vue d'ensemble des caractéristiques fondamentales des fonds de couverture, tant sous l'angle de leur structure organisationnelle que de leur encadrement réglementaire. À cet égard, il importe de jauger les principaux enjeux découlant des règles applicables à l'administration d'un fonds, particulièrement sur le plan de la transparence informationnelle et au niveau de la gouvernance interne. Ces deux éléments constituant les pierres angulaires de la présente analyse, notre étude offrira finalement une réflexion sur l'approche réglementaire à privilégier, et ce, en tenant compte des particularités des fonds de couverture. Dans un même ordre d'idées, le rôle des divers intermédiaires professionnels sera abordé afin d'élargir notre compréhension de la question sous étude. L'objet de cette étude n'est pas d'apporter une solution complète et définitive à ces enjeux, mais bien d'offrir des pistes de réflexions pouvant servir de balises à une étude subséquente de la question, laquelle devra par ailleurs tenir compte du rôle assumé par les fonds de couverture ainsi que du statut particulier qu'ils occupent sur les marchés financiers.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

John B. Davis explores the question of what the economic individual is. He bases his considerations of orthodox economics on the assumption that these theories implicitly rely on a conception of the individual that has its origin in Locke’s idea of the self as subjective inwardness. Economic history then is the attempt to deal with Locke’s inherent problems that this view involved. If neoclassical economics still has aspects of human psychology, mainstream economics dropped the subjective concept of the individual out of their considerations. However, Davis demonstrates that even the neoclassical concept of the individual fails to pass the existence test of individual identity. The latter is an idea developed in analogy to philosophers’ concern about personal identity and examines if the individual can be distinguished among different individuals and if he or she can be reidentified as the selfsame individual through time. The failure of the theory of the individual in orthodox economics led Davis to develop a concept of a socially embedded individual in accordance with heterodox accounts of economics. He submits this conception to the same test of individual identity. It appears that the socially embedded individual can be said to hold an identity in specific circumstances.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le débat sur le travail des enfants a pris une ampleur considérable ces vingt dernières années. Les politiques se sont majoritairement orientées vers la promotion de l’éducation. Pourtant, le débat n’a guère fait de place à la question des enfants des rues. Intégrer cette catégorie d’enfants au débat pose de nouvelles questions. En particulier, l’éducation doit prendre une forme non violente et des espaces de travail doivent être ouverts pour les enfants des rues.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La présente contribution examine les fondements normatifs ainsi que les implications éthiques du droit à l’eau, tel qu’il fut reconnu en 2002 par le comité onusien des droits économiques, sociaux et culturels. Il sera défendu que le droit à l’eau potable peut être justifié en tant que droit moral fondamental, de par son caractère indispensable en vue de la garantie des conditions basiques de survie. Cet état de fait, cependant, s’avère moins évident au vue d’un droit à l’eau d’usage non-domestique. Ici, la discussion se rapproche des débats accompagnant le concept beaucoup plus complexe des droits sociaux et économiques. Par rapport à ce groupe de droits, la question de l’allocation est des plus controversées: à qui incombe-t-il de garantir leur respect? Dans le but d’éviter cette problématique d’allocation, le présent essai soulèvera la question de savoir, si la limitation de l’accès à l’eau peut être conçue comme une violation d’autres droits moraux: bien qu’il y ait des cas où des entreprises transnationales déploient des activités nuisibles à l’égard des populations pauvres en polluant sciemment leurs ressources en eau ou en initiant et en exécutant des stratégies de privatisation les privant de leurs droits, la crise globale de l’eau ne saura être rattachée uniquement aux effets de la mondialisation. Plutôt, l’on reconnaîtra la nécessité d’efforts positifs et soutenus de la part des pays développés en vue de la réalisation d’un approvisionnement suffisant en eau pour tous.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans un monde devenu séculier et où la tradition chrétienne est en recul, on est en droit de se poser la question de la pertinence des textes bibliques. En lien avec cette situation, on peut aussi se demander quelle représentation de Dieu émerge de la façon dont on accueille ces textes. Ce type de questionnement sous-tend l’intérêt que peut représenter une approche processuelle des textes bibliques, approche encore peu connue dans le monde francophone. Celle-ci est-elle en mesure d’apporter une certaine nouveauté dans la vision de Dieu généralement proposée en milieu chrétien ? Pour répondre à cela, il a semblé pertinent de tenter l’exercice à partir d’un texte englobant et fondateur. Genèse 2, connu pour raconter la création d’Adam et Ève, est porteur d’images presque stéréotypées à force d’avoir été lu et remâché. À ce titre, il a paru particulièrement approprié. Mais, avant même d’explorer le texte sous un angle processuel, il s’est avéré indispensable de commencer cette démarche par une traduction personnelle du texte hébreu, à partir et avec l’aide d’une analyse syntaxique et textuelle, dont on verra qu’elles ont ouvert le texte à de nouvelles hypothèses de traduction, de nouvelles nuances, comme autant de pistes à confronter à une théologie processuelle. Enfin, cette analyse ne peut se faire sans être en dialogue avec différents commentaires, exégétiques ou non, afin de souligner les convergences comme les divergences rencontrées au fil de la recherche et de la réflexion.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Occupé depuis près de 10 000 ans, le Témiscouata est un lieu clé pour mieux comprendre la préhistoire du Québec, en raison de son emplacement stratégique entre l’Atlantique et la vallée du Saint-Laurent et de la cinquantaine de sites archéologiques connus dans la région. Le site CjEd-8 est le seul site associé à l’Archaïque supérieur (6 000 à 4 000 ans avant aujourd’hui) connu dans la région. Cette recherche palethnographique porte sur l’analyse de la collection lithique du site archéologique CjEd-8. Nos questions de recherche sont les suivantes : quel était le mode de vie et les activités des occupants du site CjEd-8? Quel était leur environnement et comment s’y sont-ils adapté? Comment l’espace était-il utilisé sur le site? Comment ce site se compare-t-il aux autres sites de l’Archaïque supérieur au Québec et dans le nord-est américain? Est-il possible de relier l’occupation du site CjEd-8 à un plus vaste cadre régional ou culturel, comme un réseau d’interaction, par exemple? Nous avons effectué une analyse techno-morphologique individuelle de tous les outils et du débitage de la collection. Nous avons pu constater que tous les stades de réduction lithique (initial, intermédiaire et final) sont présents sur le site CjEd-8. Les matières premières locales sont représentées dans tous ces stades de réduction, bien que les matières premières exotiques soient surtout présentes au sein du stade initial de réduction, davantage que les matières premières locales. Ceci laisse croire que le dégrossissement initial des blocs et galets de matière première locale se faisait ailleurs que sur le site, fort probablement sur les carrières de chert de la région, et que des matières exotiques ont aussi été travaillées sur le site. Des activités de taille ont eu lieu sur les deux zones du site, probablement autour de deux foyers distincts. Les quelques individus présents y sont demeurés très brièvement, semblent avoir effectué un nombre limité d’activités et sont peut-être repassés quelques temps après. L’Archaïque supérieur est caractérisé par une augmentation de la population et par l’intensification des interactions et de l’appartenance régionale. Or, il semblerait que ce soit l’inverse que l’on observe archéologiquement au Témiscouata. L’assemblage de CjEd-8 ne présente aucune ressemblance particulière avec les sites associés à l’Archaïque supérieur au Québec, bien que pour presque tous ces sites, on constate une exploitation importante des matières premières locales (même si ces dernières sont de qualité moyenne), combinée à l’exploitation de matières premières exotiques de sources très éloignées. L’industrie du quartz, importante dans la plupart des sites de l’Archaïque supérieur, se reflète très peu sur CjEd-8. Bien qu’il nous soit impossible d’associer l’occupation du site CjEd-8 à une tradition culturelle précise, cela ne signifie pas que ses occupants n’étaient pas en interaction avec l’une ou l’autre des entités culturelles de la fin de l’Archaïque, que ce soit avec les groupes de la région de Quoddy, de la Gaspésie, de la Vallée du Saint-Laurent, de l’Outaouais, de la Haute Côte nord, du Vermont, de l’État de New York et de l’intérieur du Maine. La question des modes de subsistance des occupants de CjEd-8 n’a pas été soulevée lors de nos analyses. Nous savons toutefois que les occupants du Témiscouata avaient alors accès à une faune riche et diversifiée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le rire est un comportement humain indiscutablement universel. Abondamment traité par la psychologie et les neurosciences, il demeure néanmoins le laissé-pour-compte de l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien le caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent évacuée. Or, toute tentative sérieuse de comprendre ce comportement requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une analyse de cinq hypothèses ultimes sur le rire et l’humour, desquelles sont extraites des prédictions qui sont confrontées à des données empiriques provenant de disciplines diverses. En guise de conclusion, il est tenté de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce travail présente une technique de simulation de feux de forêt qui utilise la méthode Level-Set. On utilise une équation aux dérivées partielles pour déformer une surface sur laquelle est imbriqué notre front de flamme. Les bases mathématiques de la méthode Level-set sont présentées. On explique ensuite une méthode de réinitialisation permettant de traiter de manière robuste des données réelles et de diminuer le temps de calcul. On étudie ensuite l’effet de la présence d’obstacles dans le domaine de propagation du feu. Finalement, la question de la recherche du point d’ignition d’un incendie est abordée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La libéralisation des échanges a fait augmenter les richesses, mais en réalité, elles se sont concentrées dans les pays développés. La question de la distribution plus équitable des richesses s'est rapidement posée. Le système GATT/OMC a joué un rôle décisif dans la libéralisation des échanges et dans l'articulation des rapports entre les pays développés et les pays en développement (PED). L'émergence et l'incarnation juridique dans le système GATT/OMC d'un principe de justice distributive passe par l'évolution du traitement spécial et différencié (TSD). Sous le GATT, le TSD s'est d'abord manifesté par l'article XVIII et la Partie IV du GATT de 1947, la Clause d'habilitation et le Système de préférences de 1971. Le TSD ainsi proposé appartenait essentiellement à la sof law et a échoué dans sa tentative d'intégrer les PED au système SCM. Sous l'OMC, le TSD a changé de paradigme et de mandat. Le TSD est passé d'un outil voué à mettre au développement des PED à un mécanisme employé à aider les PED à mettre en œuvre les nouvelles politiques de libéralisation découlant des accords de l'OMC. Les dispositions TSD seront alors dispersées dans l'ensemble des accords de l'OMC, mais sans jamais transcender la forme «soft law» qui les caractérisait sous le GATT. L'échec de la Conférence de Seattle, en 1999, engendrera le «Programme de Doha pour le développement», en 2001. La Déclaration de Doha était alors perçue comme l'incarnation de la transformation de l'OMC en organisation qui se préoccupe désormais de justice distributive. En observant de près le texte de la Déclaration de Doha et en analysant sa valeur juridique, on ne constate pas de progrès significatifs. Encore une fois, les mesures proposées le sont sous forme de déclarations d'intention et de promesses, voire d'engagement à négocier. Actuellement, le Cycle de Doha tarde à aboutir et tout nous porte à croire que l'avènement de l'OMC n'a pas concrétisé la volonté des PED d'une répartition plus équitable des richesses.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé La ribonucléase P (RNase P) est une ribonucléoprotéine omniprésente dans tous les règnes du vivant, elle est responsable de la maturation en 5’ des précurseurs des ARNs de transfert (ARNts) et quelques autres petits ARNs. L’enzyme est composée d'une sous unité catalytique d'ARN (ARN-P) et d'une ou de plusieurs protéines selon les espèces. Chez les eucaryotes, l’activité de la RNase P cytoplasmique est distincte de celles des organelles (mitochondrie et chloroplaste). Chez la plupart des espèces, les ARN-P sont constituées de plusieurs éléments structuraux secondaires critiques conservés au cours de l’évolution. En revanche, au niveau de la structure, une réduction forte été observé dans la plupart des mtARN-Ps. Le nombre de protéines composant la RNase P est extrêmement variable : une chez les bactéries, environ quatre chez les archéobactéries, et dix chez la forme cytoplasmique des eucaryotes. Cet aspect est peu connu pour les formes mitochondriales. Dans la plupart des cas, l’identification de la mtRNase P est le résultat de longues procédures de purification comprenant plusieurs étapes dans le but de réduire au minimum le nombre de protéines requises pour l’activité (exemple de la levure et A. nidulans). Cela mène régulièrement à la perte de l’activité et de l’intégrité des complexes ribonucléo-protéiques natifs. Dans ce travail, par l’utilisation de la technique de BN-PAGE, nous avons développé une procédure d’enrichissement de l’activité RNase P mitochondriale native, donnant un rendement raisonnable. Les fractions enrichies capables de cette activité enzymatique ont été analysées par LC/MS/MS et les résultats montrent que l’holoenzyme de la RNase P de chacune des fractions contient un nombre de protéines beaucoup plus grand que ce qui était connue. Nous suggérons une liste de protéines (principalement hypothétiques) qui accompagnent l’activité de la RNase P. IV De plus, la question de la localisation de la mtRNase P de A. nidulans a été étudiée, selon nos résultats, la majorité de la mtRNase P est attachée á la membrane interne de la mitochondrie. Sa solubilisation se fait par l’utilisation de différents types de détergent. Ces derniers permettent l’obtention d’un spectre de complexes de la RNase P de différentes tailles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Parmi les indicateurs de la mondialisation, le secret bancaire est au centre d'un débat animé en ce moment historique, caractérisé par la globalisation de l'économie, les exigences de sécurité croissantes, l'urgence de la lutte contre le blanchiment des capitaux provenant d’activités criminelles et l’internationalisation expansive des réseaux bancaires. La tendance vers le renforcement de la coopération internationale, met en discussion la forte sauvegarde du secret bancaire de plusieurs pays. La question dirimante est plutôt claire. Il s'agit, effectivement, de savoir jusqu'à quel point le secret, dans sa conception la plus inextensible et inflexible, devient par contre un instrument décisif pour contourner les règles communes,faire une concurrence déloyale sur les marchés et assurer des véritables crimes, par exemple de type terroriste. Pour faire évoluer les situations jugées problématiques, la démarche parallèle des trois organismes BÂLE, l’OCDE puis le GAFI est d’autant plus significative, qu’elle a été inspirée par les préoccupations exprimées au sein du G7 sur les dangers que présenteraient pour l’économie internationale certaines activités financières accomplies sur et à partir de ces territoires. L’ordre public justifie aussi la mise en place de mesures particulières en vue d’enrayer le blanchiment des capitaux provenant du trafic des stupéfiants. Selon les pays, des systèmes plus ou moins ingénieux tentent de concilier la nécessaire information des autorités publiques et le droit au secret bancaire, élément avancé de la protection de la vie privée dont le corollaire est, entre autres, l’article 7 et 8 de la Charte canadienne des droits et libertés et l’article 8 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du citoyen, et donc de l’atteinte à ces libertés. Nous le verrons, les prérogatives exorbitantes dont bénéficient l’État, l’administration ou certains tiers, par l’exercice d’un droit de communication et d’échange d’information, constituent une véritable atteinte au principe sacré de la vie privée et du droit à la confidentialité. Cette pénétration de l’État ou de l’administration au coeur des relations privilégiées entre la banque et son client trouve certainement une justification irréfutable lorsque la protection est celle de l’intérêt public, de la recherche d’une solution juridique et judiciaire. Mais cela crée inévitablement des pressions internes et des polémiques constantes,indépendamment de l’abus de droit que l’on peut malheureusement constater dans l’usage et l’exercice de certaines prérogatives.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les études portant sur l’adéquation entre le niveau de formation des individus et celui requis pour l’emploi occupé se sont peu attardées à la dimension temporelle de cette relation. De plus, peu ont abordé la question chez les immigrants canadiens, et de surcroît chez les travailleurs immigrants sélectionnés du Québec. Une seule étude abordant le sujet sous un angle longitudinal a été recensée et se limite à l’accès des travailleurs qualifiés à un premier emploi correspondant à leur niveau de compétences. Cette thèse cherche à aller au-delà des premières transitions sur le marché du travail et vise à mieux comprendre l’évolution de la relation formation-emploi au fil du temps d’établissement. Plus spécifiquement, l’objectif y est de mieux circonscrire l’évolution de la relation formation-emploi au cours des premières années suivant l’arrivée du migrant, d’en identifier les déterminants, mais également de voir l’impact de cette relation sur d’autres dimensions de la qualité de l’emploi : le statut socioéconomique et le salaire. Afin de mieux comprendre les déterminants de l’occupation d’emplois correspondant à son niveau de compétences et d’emplois pour lesquels l’individu est suréduqué ainsi que leur impact respectif sur le statut d’emploi et le salaire, cette thèse considère l’apport de théories sociologiques et économiques. D’une part, différentes théories s’opposent quant au caractère temporaire ou permanent de la suréducation. Ce faisant, elles soulèvent l’impact potentiel des expériences en emploi passées sur le parcours futur et la nécessité d’une vision longitudinale de l’insertion professionnelle. D’autre part, d’autres approches soulèvent, en plus des déterminants individuels, le rôle du contexte social et institutionnel dans lequel l’individu s’insère. Ces différentes approches trouvent écho dans la perspective empirique du parcours de vie qui permet de considérer l’interrelation entre des facteurs micro, méso et macro sociaux et de se représenter les parcours biographiques au fil du temps. L'Enquête sur les travailleurs sélectionnés (ETS) a rendu possible l'étude des parcours en emploi de cette catégorie d'immigrant sélectionnée en fonction de son potentiel d'insertion à la société québécoise dans la mesure où celle-ci comporte à la fois des données administratives sur la situation prémigratoire des travailleurs immigrants, de même que de l'information datée sur chacun des emplois occupés après la migration. L’analyse a été effectuée en trois temps soit : une description du lien entre le niveau de formation et l’emploi, l’étude des déterminants de la relation formation-emploi et finalement, l’étude des salaires et effet de la relation formation-emploi sur ceux-ci. Chacun de ces trois volets est présenté sous forme d’articles soumis pour publication. Les résultats montrent que la proportion d’individus occupant des emplois correspondant à leur niveau de compétences augmente avec le temps passé dans la société d’accueil. Cependant, la suréducation demeure un phénomène présent chez la catégorie des travailleurs immigrants sélectionnés. À ce titre, les premières expériences en emploi sont déterminantes dans la mesure où elles ont un impact non seulement sur l’évolution de la relation formation-emploi, mais également sur les salaires et les statuts des emplois décrochés par les nouveaux arrivants. La grille de sélection, élément central du processus par lequel un candidat peut devenir immigrant au Québec, à travers les attributs des individus qu’elle retient, contribue aussi à façonner les parcours en emploi. La région de provenance des immigrants distingue également les immigrants entre eux, toutes choses égales par ailleurs. La majorité des groupes sont désavantagés lorsqu’ils sont comparés à leurs compatriotes de l’Europe de l’Ouest et des États-Unis, et ce désavantage perdure au fil des années. Cette thèse a démontré que l’insertion professionnelle et la relation formation-emploi sont des sujets se devant d’être abordés sous un angle longitudinal pour bien saisir la complexité des processus à l’œuvre. Au niveau social, les analyses auront permis de montrer l’importance de se pencher sur les services offerts aux immigrants pour les aider dans leur insertion professionnelle, surtout dans un contexte où des départs à la retraite massifs et des pénuries de main-d'œuvre qualifiée sont à prévoir.