963 resultados para applications des méthodes de crible


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le débat sur l’unicité ou la multiplicité de l’intelligence, Gardner prend nettement position en faveur des intelligences multiples (IM). Son approche soulève toutefois au moins neuf critiques : la confusion entre l’intelligence et le talent, une rigueur scientifique insuffisante, l’absence de réelles nouveautés, le caractère arbitraire des critères utilisés, les problèmes de l’interdépendance des IM, du réel statut des IM, l’ignorance des résultats des approches factorielles et le refus de considérer les différences entre les groupes, de la mesure des IM. La validité des applications des IM dans le milieu scolaire peut également être mise en doute. En conclusion, nous nous interrogeons sur la raison du succès de la théorie des IM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le lessivage des nitrates, la contamination de la nappe phréatique et l’eutrophisation des cours d’eau figurent parmi les enjeux planétaires qui affectent la durabilité de l’agriculture et des ressources naturelles. Ce mémoire présente le développement d’une première génération d’un nouveau senseur électrochimique pour le dosage de précisions des nitrates. Celui-ci est basé sur la spectroscopie d’impédance électrochimique d’une membrane polymérique sélective aux ions. Grâce à cette approche, un senseur compact et abordable a été produit. Par son utilisation en solutions aqueuses et en substrats de croissance saturés, il a été montré que le senseur permettait de quantifier des ajouts contrôlés de nitrates allant de 0,6 ppm à 60 ppm. La mise en application en substrat de croissance a pu être étudiée en comparaison avec des méthodes certifiées ISO 17025 visant l’analyse de ces substrats. Le senseur a aussi montré une grande versatilité par son utilisation sur divers appareils de mesure d’impédance. En plus, il a démontré une stabilité possible suite à une implantation d’un mois directement en substrat de croissance sous les variables environnementales d’une pépinière forestière. Par l’étude du spectre d’impédance du senseur en solutions pures de différentes concentrations, il a aussi été possible de proposer le circuit électrique équivalent du système, qui met en évidence deux parcours compétitifs du courant, un au coeur de la membrane et un deuxième en solution. Les résultats de ces travaux sont au coeur de deux publications scientifiques dont le manuscrit est inclus à ce mémoire. Pour finir cette étude, des suggestions seront faites pour guider l’amélioration du senseur par le développement d’une deuxième génération de celui-ci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les dernières décennies ont apporté de grandes transformations à l'élevage porcin, qui est dorénavant considérée comme une agro-industrie composée de quelques grands joueurs à l’échelle internationale. Ces changements structurels ont contribué à l’apparition de problèmes associés à la quantité croissante de lisier produite par le secteur porcin aux États-Unis. Certaines préoccupations environnementales telles que les impacts sur les eaux de surface et souterraine, les effets sur la qualité de l’air et des sols sont notamment soulevées. Par contre, lorsque la gestion et l’épandage du lisier sont faits de manière adéquate en prenant soin d’éviter toute forme de pollution, le lisier est un excellent engrais, riche en nutriments essentiels aux cultures. Actuellement, deux méthodes d’entreposage sont généralisées aux États-Unis : les fosses souterraines pour entreposer le lisier non-dilué et les lagunes ouvertes pour le lisier liquide. La majorité des producteurs valorisent toujours leur lisier par épandage aux champs. Malheureusement, les méthodes actuelles de gestion utilisées ne sont pas jugées durables, ni du point de vue environnemental, social ou économique. Pourtant, plusieurs pratiques durables et efficaces existent et peuvent être introduites de façon relativement simple comme entre autres, l’implantation de bandes riveraines et l’épandage du lisier en post-levée avec des engrais verts. De plus, la valorisation énergétique grâce à un digesteur anaérobie est une option forte intéressante en raison des avantages économiques qui peuvent découler de son utilisation. Pour le moment, ces méthodes restent toujours très marginales. Certains freins sont possiblement responsables de l’inaction face aux problèmes environnementaux causés par le lisier. Entre autres, le fait que les producteurs porcins soient maintenant sous contrats avec des firmes intégratrices, le monopole de certaines compagnies agroalimentaire et les emplois précaires offerts par les industries. Ainsi, après l’analyse de la gestion des lisiers aux États-Unis, plusieurs constats et recommandations ont pu être formulés : la nécessité de mettre en place une loi sur la qualité de l’air, les changements nécessaires au Clean Water Act, l’abolition des lagunes dans le but de mettre en place des méthodes plus durables telles les digesteurs anaérobies, la mise en place de moratoire pour les cheptels dans les régions avec des surplus d’éléments nutritifs dans le sol et enfin le retour graduel à une agriculture à plus petite échelle et locale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’augmentation des chaleurs estivales jumelée à l’augmentation des fréquences de smog affectera la santé publique. Le phénomène des îlots de chaleur urbain apporte son lot d’impacts environnementaux, sociaux et économiques partout à travers le monde. La perte de biodiversité, les maladies pulmonaires, la pauvreté et contamination des sols, les dépenses astronomiques liées aux traitements des eaux pluviales obligent les acteurs du territoire à trouver des mesures d’atténuation plus durable et impactant. Dans la foulée, le verdissement sous l’approche de l’arbre apparait comme une des stratégies les plus douces et simples à mettre en œuvre. Les bénéfices encourus par ces grands êtres vivants que sont les arbres peuvent aussi jouer à la fois sur l’économie, l’environnement et la santé. D’où l’engouement des métropoles à verdir leur espace urbain : parc, corridor forestier, îlot de verdure, etc. Alors que certaines villes visent à augmenter leur indice de canopée, d’autres espèrent seulement procurer de meilleures conditions de vie à leur masse citoyenne. Dans les grandes villes et les régions occidentales, dont au Québec et à Montréal, le verdissement demeure un terme récent et méconnu. L’objectif du document est de recommander des méthodes d’actions de verdissement à l’échelle des parcs industriels montréalais. Celui de l’arrondissement d’Anjou a été choisi comme étude de cas. Les conclusions de l’analyse permettent de réaliser qu’un projet de plantation d’arbres en milieu industriel se déroule en 2 phases et 10 étapes. En tenant compte du diagnostic territorial réalisé en amont, les acteurs du territoire ciblent des enjeux afin d’établir des situations gagnantes aux projets de verdissement. Cette démarche vise à insuffler un nouveau visage aux parcs industriels montréalais. Les territoires industriels ont trop longtemps été des lieux ingrats, sous-utilisés et dépourvus d’arbres, toutefois ils témoignent d’un immense potentiel de verdissement. D’où la raison d’y accorder une importance. Pour faire face à ce changement de vision, les élus, les énarques et les acteurs du territoire montréalais doivent miser : sur le développement d’une cohérence des politiques sectorielles, sur le renforcement des règlements d’urbanismes, sur une réelle lutte aux ICU et à l’atteinte des objectifs du Plan d’action canopée, sur la création d’incitatifs économiques favorables, sur le développement des capacités et enfin sur le réseautage des citoyens ainsi que sur le réseautage des adeptes de l’aménagement durable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire décrit, en premier lieu, l’analyse géotechnique et géomorphologique du glissement de 1971 à Casselman, Ontario. Les caractéristiques morphologiques identifiées à l’intérieur de la cicatrice confirment qu’il s’agit d’un étalement. Le sol impliqué est une argile sensible de la mer de Champlain, normalement à légèrement surconsolidée (OCR entre 1,0 et 1,2) dont les indices de liquidité varient entre 1,0 et 2,0. La résistance au cisaillement intacte mesurée au scissomètre de chantier varie entre 50 kPa et 87 kPa. L’argile adopte un comportement anti-écrouissage (perte de 40 % de la résistance en pic) lorsque soumise à des essais de cisaillement non-drainé. Une surface de rupture quasi-horizontale à deux niveaux principaux a été identifiée à partir des sondages au piézocône réalisés à l’intérieur de la cicatrice. Les coefficients de sécurité élevés obtenus à partir de méthodes à l’équilibre limite démontrent que la rétrogression ne peut être expliquée par des méthodes d’analyses conventionnelles. La deuxième partie du mémoire présente l’application numérique du principe de rupture progressive aux étalements de Casselman (1971) et de Saint-Luc-de-Vincennes (1986). Une étude paramétrique a été réalisée afin d’évaluer l’influence de la fragilité du comportement après la résistance en pic du sol, reliée dans l’étude à une épaisseur de bande de cisaillement, ainsi que de la résistance à grande déformation, sur l’initiation et la rétrogression résultant du processus de rupture progressive. Les résultats démontrent que la résistance à grande déformation a très peu d’influence sur l’initiation du processus de rupture progressive, qui est principalement influencé par la fragilité du comportement du sol. Il a aussi été observé que la rétrogression était majoritairement influencée par la résistance à grande déformation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le service social d'aujourd'hui est confronté à de nouvelles réalités. Nous devons faire face quotidiennement à de nouvelles valeurs qui se heurtent à notre fonctionnement individuel et social. Il faut en arriver à pouvoir composer avec ces nouveaux éléments. Citons par exemple le rôle de la femme qui prend de plus en plus d'importance dans la structure sociale, les étudiants, les travailleurs et les assistés sociaux qui revendiquent leurs droits par des moyens de pressions de plus en plus convaincants, le couple qui ne vit plus exclusivement pour la procréation, l'avortement qui fait l'objet de prises de positions très controversées et enfin le système dans son entier qui est remis en question par certains. Le service social personnel qui agit à un niveau individuel d'intervention se doit de faire face à ces nouvelles réalités et de découvrir des méthodes de travail qui conviennent à cette situation. C'est dans ce contexte que nous entreprenons cette étude. Au Québec, le service social, comme la plupart des sciences sociales, possède un passé qui date de moins d'un siècle. Et dans ces différents domaines comme dans d'autres, nous subissons l'influence de nos voisins du sud. Depuis quelques années, on a tendance à identifier globalement le service social personnel à deux types d'approches: une première communément appelée l'approche traditionnelle à long terme et la seconde appelée l'approche court terme. Ces deux méthodes d'intervention constituaient le guide de référence de ce qu'on appelait le casework. Celui-ci est identifié au Québec par divers termes, soient ceux d'intervention clinique, d'intervention sociale individuelle ou encore de service social personnel. Ces différentes terminologies désignent l'activité du service social auprès des individus et des petits groupes. Si l'on considère le domaine de l'intervention clinique d'une façon plus approfondie, on constate que depuis quelques années, sous l'influence des sciences du comportement et des sciences sociales ainsi qu'à partir de l'expérience de la pratique du service social personnel, se sont développés de nouveaux modèles de pratique. Nous constatons que ces modèles sont peu connus au Québec. Les milieux universitaires commencent à s'y intéresser et les milieux de la pratique en subiront l'influence dans quelques années. Nous croyons qu'un approfondissement de ces modèles pourra vraisemblablement améliorer les méthodes d'action et par conséquent la qualité des services rendus s'y verra peut-être augmentée. Cette étude découle d'un besoin d'explorer le champ des connaissances de l'intervention clinique. Cette exploration pourra conséquemment être utile à ceux qui voudront bien s'en servir. Ce besoin d'améliorer l'état de nos connaissances en service social personnel ressort de certaines observations qui démontrent que plusieurs approches en intervention clinique sont peu connues. Afin de clarifier et d'améliorer notre connaissance théorique des modèles d'intervention clinique, nous procéderons à l'exploration de neuf de ceux-ci. Pour orienter notre observation, nous partirons de variables que nous définirons ultérieurement. Ces variables vont nous guider dans la cueillette des données et dans la présentation de modèles. Avant de présenter systématiquement les modèles, il y aura un chapitre sur la position du problème et un second sur la méthodologie employée. La partie centrale qui traite des approches sera suivie d'une étude comparative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour modéliser un vecteur aléatoire en présence d'une co-variable, on peut d'abord faire appel à la fonction de répartition conditionnelle. En effet, cette dernière contient toute l'information ayant trait au comportement du vecteur étant donné une valeur prise par la co-variable. Il peut aussi être commode de séparer l'étude du comportement conjoint du vecteur de celle du comportement individuel de chacune de ses composantes. Pour ce faire, on utilise la copule conditionnelle, qui caractérise complètement la dépendance conditionnelle régissant les différentes associations entre les variables. Dans chacun des cas, la mise en oeuvre d'une stratégie d'estimation et d'inférence s'avère une étape essentielle à leur utilisant en pratique. Lorsqu'aucune information n'est disponible a priori quant à un choix éventuel de modèle, il devient pertinent d'opter pour des méthodes non-paramétriques. Le premier article de cette thèse, co-écrit par Jean-François Quessy et moi-même, propose une façon de ré-échantillonner des estimateurs non-paramétriques pour des distributions conditionnelles. Cet article a été publié dans la revue Statistics and Computing. En autres choses, nous y montrons comment obtenir des intervalles de confiance pour des statistiques s'écrivant en terme de la fonction de répartition conditionnelle. Le second article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, s'affaire à étudier deux estimateurs non-paramétriques de la copule conditionnelles, proposés par Gijbels et coll. en présence de données sérielles. Cet article a été soumis dans la revue Statistics and Probability Letters. Nous identifions la distribution asymptotique de chacun de ces estimateurs pour des données mélangeantes. Le troisième article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, propose une nouvelle façon d'étudier les relations de causalité entre deux séries chronologiques. Cet article a été soumis dans la revue Electronic Journal of Statistics. Dans cet article, nous utilisons la copule conditionnelle pour caractériser une version locale de la causalité au sens de Granger. Puis, nous proposons des mesures de causalité basées sur la copule conditionnelle. Le quatrième article de cette thèse, co-écrit par Taoufik Bouezmarni, Anouar El Ghouch et moi-même, propose une méthode qui permette d'estimer adéquatement la copule conditionnelle en présence de données incomplètes. Cet article a été soumis dans la revue Scandinavian Journal of Statistics. Les propriétés asymptotiques de l'estimateur proposé y sont aussi étudiées. Finalement, la dernière partie de cette thèse contient un travail inédit, qui porte sur la mise en oeuvre de tests statistiques permettant de déterminer si deux copules conditionnelles sont concordantes. En plus d'y présenter des résultats originaux, cette étude illustre l'utilité des techniques de ré-échantillonnage développées dans notre premier article.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cet essai est de recommander des solutions alternatives aux méthodes de déglaçage présentement utilisées au Québec et au Canada. Actuellement, les routes hivernales sont maintenues sécuritaires grâce à l’épandage de sels de voirie et d’abrasifs. Le chlorure de sodium et le chlorure de calcium sont les plus utilisés sur les routes, en partie en raison de leurs faibles coûts. Or, les impacts négatifs d’une libération massive d’ions chlorure dans l’environnement sont nombreux. La perturbation de l’équilibre osmotique du sol menant à un dérèglement végétal, l’augmentation de la salinité de l’eau nuisant aux organismes aquatiques vertébrés et l’érosion accélérée du sol n’en sont que quelques-unes. En prime, les répercussions économiques reliées à la corrosion des véhicules et des structures routières, telles que les ponts et viaducs, causées par l’épandage de sels de voirie sont importantes. Ainsi, l’utilisation de méthodes alternatives peut limiter les impacts engendrés par les sels de voirie. Les recommandations sont divisées en deux catégories. D’une part, des recommandations sont formulées en lien avec l’épandage de produits de remplacements aux sels de voirie. L’exploitation du potentiel de l’extrait de betterave est suggérée. L’entretien hivernal des ponts et viaducs à l’aide de produits non corrosifs tels que les acétates est proposé, tout comme le traitement des piles d’abrasifs avec un produit comportant un pourcentage d’extrait de maïs. D’autre part, des recommandations concernant l’optimisation des méthodes employées et les visions environnementales à adopter en entretien hivernal sont formulées. Elles consistent à augmenter le nombre de villes québécoises participantes à la Stratégie québécoise pour une gestion environnementale des sels de voirie et de villes canadiennes éligibles au Code de pratique pour la gestion des sels de voirie, de miser en premier lieu sur l’amélioration des méthodes d’entretien hivernal dans les zones vulnérables prioritaires, de prendre en compte le cycle de vie des composés alternatifs et enfin d’effectuer une réduction à la source des émissions de sels de voirie dans l’environnement. Enfin, puisqu’aucune solution idéale n’existe, la solution réside en l’amélioration des méthodes actuelles et l’utilisation d’une combinaison d’alternatives, chacune jouant un rôle dans une situation qui lui est propre pour atténuer des impacts causés par l’épandage de sels de voirie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.