955 resultados para Pression des pairs--Aspect économique--Études de cas
Resumo:
Bibliography: p. [319]-321.
Resumo:
Vol. 8 wanting in L. C. set. Vols. 1-6, 9, 13-15 lettered: Cour de pairs. v. 1-5, 7, 6, 8-10. Affaire d'avril 1834; v. 7, 10-12 lettered: Cour des pairs. Affaire d'avril 1834. [v] 1, 3-5.
Resumo:
At head of title: Chambre des pairs de France. Session de 1822. Séance du 8 juin 1822.
Resumo:
[At head of title: Chambre des pairs. Séance du 16 mai 1940. Impressions No. 81.]
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Reprint of the edition of 1527 with reproduction of original title: Cronique [et] hystoire faicte et composee par reuerend pere en dieu Turpin archeuesque de Reims lung des pairs e france / Contenant es p[r]ouesses et faictz darmes aduenuz en son temps du tres magnanime Roy Charles le gr'at / autrement dit Charlemaigne : [ss] de son nepueu Raoulád ...
Resumo:
Ce travail est le résultat d’une recherche dédiée à étudier le processus philosophique de la découverte du cogitochez Descartes. Ses buts ont été : a) de préciser qu’il existe d’autres possibilités d’interprétation du cogito au-delà de celles les plus courantes et b) de montrer que, dans cette découverte, il y a un trajet qui passe nécessairement par les degrés de la sagesse. La mise en oeuvre du travail d’enquête a exigé la manipulation des sources bibliographiques primaires, constituées des principaux écrits de Descartes, avec une plus grande attention à laLettre-préface des Principes de la philosophie, aux Méditations sur la philosophie première, aux Principes de la philosophie et aux Réponses aux secondes objections. Nous avons cherché à lier ces textes traditionnels aux textes de la littérature secondaire de la modernité, prouvant ainsi la pertinence du sujet au sein du domaine de la Philosophie dans les universités brésiliennes. Pour attester nos constatations, nous nous sommes appuyés sur l’analyse linguistique de termes spécifiques au discours cartésien, en utilisant des dictionnaires de latin (langue dans laquelle a été écrite une grande partie du texte de Descartes), du français de la Renaissance et de portugais. L’argumentation s’est arrêtée dans la mise en contexte du cadre des degrés de la sagesse. Pour cela, il a été nécessaire d’expliquer les notions fondamentales de la philosophie cartésienne explicitées dans la Lettre-préface. Par exemple, le concept de philosopher qui, chez Descartes, est fortement associé à la pulsion sceptique, source commune d’inspiration pour le philosophe et pour le sceptique, étant, en outre, point de convergence entre Descartes et un autre penseur avec lequel il réalise une espèce de conversation : Montaigne. Pendant le moment du quatrième degré de la sagesse, Descartes identifie, dans la pensée de Montaigne, les traces permettant de transcender le quatrième vers le cinquième degré de la sagesse, celui-ci signifiant surtout la découverte des premières causes, des premières notions, des principes qui engendrent toute la Philosophie. La portée des premières notions ou causes, des principes est l’objectif principal du philosopher cartésien. Descartes distingue, même si de façon non explicitée, entre des notions communes et des notions primitives. Dans les deux cas, il s’agit de notions premières, néanmoins, chacun a une fonction différente au sein de la philosophie cartésienne. Les notions communes sont les règles de la raison ou les principes logiques qui confirment la découverte d’un savoir. Les notions primitives sont les principes qui engendrent le savoir. La conclusion présentée dans ce travail – la découverte du cogito passe par les quatre degrés de la sagesse, en réalisant avec excellence, dans son cinquième degré, une expérience dans laquelle il faut trouver l’instance originelle de la pensée – renforce notre constatation, ne mettant pourtant pas fin aux discussions. Puisque, dans la myriade de réflexions sur le sujet, ce n’est qu’une modeste collaboration.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Résumé: Le développement de l’industrie des polymères fourni de plus en plus de choix pour la formulation de matériaux pour les couvre-planchers. Les caoutchoucs, le PVC et le linoleum sont les polymères habituellement utilisés dans l’industrie des couvre-planchers. Ce projet répond à un problème de facilité de nettoyage des couvre-planchers de caoutchouc qui sont reconnus pour être mous, collants et ayant une surface rugueuse. L’INTRODUCTION couvrira l’état actuel de la recherche sur les couvre-planchers, surtout en regard au problème de la «nettoyabilité». La théorie pertinente et les informations générales sur les polymères, les composites polymériques et la science des surfaces seront introduites au CHAPITRE 1. Ensuite, le CHAPITRE 2 couvrira la méthode utilisée pour déterminer la nettoyabilité, l’évaluation des résultats ainsi que l’équipement utilise. Le CHAPITRE 3, discutera des premières expériences sur l’effet de la mouillabilité, la rugosité et la dureté sur la facilité de nettoyage des polymères purs. Plusieurs polymères ayant des surfaces plus ou moins hydrophobes seront investigués afin d’observer leur effet sur la nettoyabilité. L’effet de la rugosité sur la nettoyabilité sera investigué en imprimant une rugosité définie lors du moulage des échantillons; l’influence de la dureté sera également étudiée. Ensuite, un modèle de salissage/nettoyage sera établi à partir de nos résultats et observations afin de rationaliser les facteurs, ou « règles », qui détrminent la facilité de nettoyage des surfaces. Finalement, la réticulation au peroxyde sera étudiée comme une méthode de modification des polymères dans le but d’améliorer leur nettoyabilité; un mécanisme découlant des résultats de ces études sera présenté. Le CHAPITRE 4 étendra cette recherche aux mélanges de polymères; ces derniers servent habituellement à optimiser la performance des polymères purs. Dans ce chapitre, les mêmes tests discutés dans le CHAPITRE 3 seront utilisés pour vérifier le modèle de nettoyabilité établi ci-haut. De plus, l’influence de la non-miscibilité des mélanges de polymères sera discutée du point de vue de la thermodynamique (DSC) et de la morphologie (MEB). L’utilisation de la réticulation par peroxyde sera étudié dans les mélanges EPDM/ (E-ran-MAA(Zn)-ran-BuMA) afin d’améliorer la compatibilité de ces polymères. Les effets du dosage en agent de réticulation et du temps de cuisson seront également examinés. Finalement, un compatibilisant pré-réticulé a été développé pour les mélanges ternaires EPDM/ (E-ran-MAA(Zn)-ran-BuMA)/ HSR; son effet sur la nettoyabilité et sur la morphologie du mélange sera exposé.
Resumo:
La colonie de Jacques Cartier et de Jean-François de la Rocque de Roberval de 1541-1543 au cap Rouge, près de Québec, est aujourd’hui au coeur d’une patrimonialisation sans précédent. L’intérêt récent pour cette première tentative coloniale française en Amérique du Nord, un pan de géohistoire oublié, s’explique par un changement de discours qui s’est dessiné au début du 21e siècle, coïncidant ainsi avec la mise au jour et la mise en valeur du site archéologique Cartier-Roberval. L’histoire prendra donc une nouvelle tournure, il ne sera plus question de tentative mais plutôt d’une colonie à part entière. Le site Cartier-Roberval se voit aujourd’hui aux premières loges d’un grand mouvement commémorateur qui mise et met en valeur sa singularité. L’étude critique sur les processus de patrimonialisation à l’oeuvre sur le site en question permet de mieux comprendre l’ampleur et le dénouement possible du phénomène qui s’opère actuellement.
Resumo:
La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d’ordonnancement de grande envergure. L’ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d’un ordonnancement. Résoudre un problème d’ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l’exécuter. La plupart des problèmes d’ordonnancement sont NP-Difficiles. Conséquemment, il n’existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d’ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d’explorer ces algorithmes d’ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l’arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d’ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d’optimisation n’est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d’exécuter une tâche au temps t dépend de t.
Resumo:
La possibilité d’estimer l’impact du changement climatique en cours sur le comportement hydrologique des hydro-systèmes est une nécessité pour anticiper les adaptations inévitables et nécessaires que doivent envisager nos sociétés. Dans ce contexte, ce projet doctoral présente une étude sur l’évaluation de la sensibilité des projections hydrologiques futures à : (i) La non-robustesse de l’identification des paramètres des modèles hydrologiques, (ii) l’utilisation de plusieurs jeux de paramètres équifinaux et (iii) l’utilisation de différentes structures de modèles hydrologiques. Pour quantifier l’impact de la première source d’incertitude sur les sorties des modèles, quatre sous-périodes climatiquement contrastées sont tout d’abord identifiées au sein des chroniques observées. Les modèles sont calés sur chacune de ces quatre périodes et les sorties engendrées sont analysées en calage et en validation en suivant les quatre configurations du Different Splitsample Tests (Klemeš, 1986;Wilby, 2005; Seiller et al. (2012);Refsgaard et al. (2014)). Afin d’étudier la seconde source d’incertitude liée à la structure du modèle, l’équifinalité des jeux de paramètres est ensuite prise en compte en considérant pour chaque type de calage les sorties associées à des jeux de paramètres équifinaux. Enfin, pour évaluer la troisième source d’incertitude, cinq modèles hydrologiques de différents niveaux de complexité sont appliqués (GR4J, MORDOR, HSAMI, SWAT et HYDROTEL) sur le bassin versant québécois de la rivière Au Saumon. Les trois sources d’incertitude sont évaluées à la fois dans conditions climatiques observées passées et dans les conditions climatiques futures. Les résultats montrent que, en tenant compte de la méthode d’évaluation suivie dans ce doctorat, l’utilisation de différents niveaux de complexité des modèles hydrologiques est la principale source de variabilité dans les projections de débits dans des conditions climatiques futures. Ceci est suivi par le manque de robustesse de l’identification des paramètres. Les projections hydrologiques générées par un ensemble de jeux de paramètres équifinaux sont proches de celles associées au jeu de paramètres optimal. Par conséquent, plus d’efforts devraient être investis dans l’amélioration de la robustesse des modèles pour les études d’impact sur le changement climatique, notamment en développant les structures des modèles plus appropriés et en proposant des procédures de calage qui augmentent leur robustesse. Ces travaux permettent d’apporter une réponse détaillée sur notre capacité à réaliser un diagnostic des impacts des changements climatiques sur les ressources hydriques du bassin Au Saumon et de proposer une démarche méthodologique originale d’analyse pouvant être directement appliquée ou adaptée à d’autres contextes hydro-climatiques.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
L’objectif de ce travail est mettre en place un modèle hydro-sédimentaire de dispersion des radionucléides, comme outil d’aide à la décision suite à une hypothétique contamination marine accidentelle. Appliqué à la Rade de Toulon, il utilise le modèle MARS-3D pour l’étude hydrodynamique et le module MIXSED pour la dynamique des différentes classes de sédiments. Les cas d’application présentés concernent le césium et le plutonium, qui ont des affinités très différentes avec les sédiments fins. Les simulations de rejet, effectuées en fond de baie, montrent une variabilité saisonnière marquée, due aux conditions météorologiques typiques, mais aussi aux conditions de débit et de charge sédimentaire associée du fleuve Las, qui se jette dans la Rade. Ainsi, les simulations par forts vents, qui favorisent la circulation et les échanges de masses d’eau, présentent une diminution rapide des activités dissoutes. Par ailleurs, le Vent d’Est hivernal, qui engendre d’importantes crues du Las et un apport de sédiments à la Rade, favorise le piégeage des radionucléides dans les sédiments de fond, où les deuxtiers de la contamination initiale sont piégés après une simulation de deux mois.