387 resultados para Caméra-Linéaire
Resumo:
Cette thèse propose de développer des mécanismes déployables pour applications spatiales ainsi que des modes d’actionnement permettant leur déploiement et le contrôle de l’orientation en orbite de l’engin spatial les supportant. L’objectif étant de permettre le déploiement de surfaces larges pour des panneaux solaires, coupoles de télécommunication ou sections de station spatiale, une géométrie plane simple en triangle est retenue afin de pouvoir être assemblée en différents types de surfaces. Les configurations à membrures rigides proposées dans la littérature pour le déploiement de solides symétriques sont optimisées et adaptées à l’expansion d’une géométrie ouverte, telle une coupole. L’optimisation permet d’atteindre un ratio d’expansion plan pour une seule unité de plus de 5, mais présente des instabilités lors de l’actionnement d’un prototype. Le principe de transmission du mouvement d’un étage à l’autre du mécanisme est revu afin de diminuer la sensibilité des performances du mécanisme à la géométrie de ses membrures internes. Le nouveau modèle, basé sur des courroies crantées, permet d’atteindre des ratios d’expansion plans supérieurs à 20 dans certaines configurations. L’effet des principaux facteurs géométriques de conception est étudié afin d’obtenir une relation simple d’optimisation du mécanisme plan pour adapter ce dernier à différents contextes d’applications. La géométrie identique des faces triangulaires de chaque surface déployée permet aussi l’empilement de ces faces pour augmenter la compacité du mécanisme. Une articulation spécialisée est conçue afin de permettre le dépliage des faces puis leur déploiement successivement. Le déploiement de grandes surfaces ne se fait pas sans influencer lourdement l’orientation et potentiellement la trajectoire de l’engin spatial, aussi, différentes stratégies de contrôle de l’orientation novatrices sont proposées. Afin de tirer profit d’une grande surface, l’actionnement par masses ponctuelles en périphérie du mécanisme est présentée, ses équations dynamiques sont dérivées et simulées pour en observer les performances. Celles-ci démontrent le potentiel de cette stratégie de réorientation, sans obstruction de l’espace central du satellite de base, mais les performances restent en deçà de l’effet d’une roue d’inertie de masse équivalente. Une stratégie d’actionnement redondant par roue d’inertie est alors présentée pour différents niveaux de complexité de mécanismes dont toutes les articulations sont passives, c’est-à-dire non actionnées. Un mécanisme à quatre barres plan est simulé en boucle fermée avec un contrôleur simple pour valider le contrôle d’un mécanisme ciseau commun. Ces résultats sont étendus à la dérivation des équations dynamiques d’un mécanisme sphérique à quatre barres, qui démontre le potentiel de l’actionnement par roue d’inertie pour le contrôle de la configuration et de l’orientation spatiale d’un tel mécanisme. Un prototype à deux corps ayant chacun une roue d’inertie et une seule articulation passive les reliant est réalisé et contrôlé grâce à un suivi par caméra des modules. Le banc d’essai est détaillé, ainsi que les défis que l’élimination des forces externes ont représenté dans sa conception. Les résultats montrent que le système est contrôlable en orientation et en configuration. La thèse se termine par une étude de cas pour l’application des principaux systèmes développés dans cette recherche. La collecte de débris orbitaux de petite et moyenne taille est présentée comme un problème n’ayant pas encore eu de solution adéquate et posant un réel danger aux missions spatiales à venir. L’unité déployable triangulaire entraînée par courroies est dupliquée de manière à former une coupole de plusieurs centaines de mètres de diamètre et est proposée comme solution pour capturer et ralentir ces catégories de débris. Les paramètres d’une mission à cette fin sont détaillés, ainsi que le potentiel de réorientation que les roues d’inertie permettent en plus du contrôle de son déploiement. Près de 2000 débris pourraient être retirés en moins d’un an en orbite basse à 819 km d’altitude.
Resumo:
Cette thèse tente de mettre au point certains instruments de mesure qui détermineront l’incidence de la dimension identitaire des politiques culturelles sur le développement des musées nationaux au Canada et au Québec depuis 1950. Nous avons démontré que la promotion de l’identité collective est la motivation principale d’un État face à l’adoption d’une politique culturelle, et que lorsque deux gouvernements nationaux mettent de l’avant des composantes identitaires divergentes sur un territoire juridique partagé il en résulte des zones conflictuelles. Nous avons développé en première partie des définitions théoriques et un schéma conceptuel des politiques culturelles et muséales. En deuxième et troisième parties, nous analysons le développement des politiques culturelles et des musées nationaux canadien et québécois. L’incidence de la dimension identitaire des politiques culturelles s’est avérée mesurable pour les deux cas étudiés. Le Musée canadien des civilisations s’apparente au musée emblématique, avec une approche spatiotemporelle périodisée et une vision multiculturelle linéaire. Le Musée de la civilisation utilise une approche thématique circulaire et propose une image transculturelle de l’identité québécoise.
Resumo:
Estuaries are areas which, from their structure, their fonctioning, and their localisation, are subject to significant contribution of nutrients. One of the objectif of the RNO, the French network for coastal water quality monitoring, is to assess the levels and trends of nutrient concentrations in estuaries. A linear model was used in order to describe and to explain the total dissolved nitrogen concentration evolution in the three most important estuaries on the Chanel-Atlantic front (Seine, Loire and Gironde). As a first step, the selection of a reliable data set was performed. Then total dissolved nitrogen evolution schemes in estuary environment were graphically studied, and allowed a resonable choice of covariables. The salinity played a major role in explaining nitrogen concentration variability in estuary, and dilution lines were proved to be a useful tool to detect outlying observations and to model the nitrogenlsalinity relation. Increasing trends were detected by the model, with a high magnitude in Seine, intermediate in Loire, and lower in Gironde. The non linear trend estimated in Loire and Seine estuaries could be due to important interannual variations as suggest in graphics. In the objective of the QUADRIGE database valorisation, a discussion on the statistical model, and on the RNO hydrological data sampling strategy, allowed to formulate suggestions towards a better exploitation of nutrient data.
Resumo:
Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.
Resumo:
Entre 1950 et 1970, le Québec a connu une période d’effervescence dans le domaine de la construction de bâtiments. De ce nombre se retrouvent plusieurs écoles construites avec de la maçonnerie non armée. En effet, ce matériau a servi dans la construction de murs structuraux ou non structuraux servants à faire la division des pièces dans ces bâtiments ainsi que pour isoler. Par contre, au niveau international, les murs constitués de blocs en béton ont fait mauvaise figure en subissant d’importants dommages principalement dus à un dimensionnement inadéquat. Ce programme de recherche a comme objectif principal de montrer que ce matériau pourvu d’armatures et complètement rempli de coulis permet d’atteindre les niveaux de performance escomptés. Pour y arriver, des essais sous charges cycliques à l’aide de vérins et d’un mur de réaction ont été effectués sur des murs en maçonnerie armée. Puisque les murs sont bien instrumentés, les résultats des essais ont permis d’idéaliser adéquatement le comportement des murs de maçonnerie ainsi que d’identifier les états d’endommagement pour chaque niveau de performance. À l’aide de ce modèle et de la variabilité des paramètres, la performance sismique d’une école typique de 2 étages située à Montréal a été évaluée à l’aide de courbes de fragilité selon l’analyse à bandes multiples. Afin de générer les accélérogrammes, ces derniers sont normalisés au spectre conditionné à la période fondamentale du bâtiment.
Resumo:
En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.
Resumo:
Résumé : Les enfants de maternelle dont la préparation scolaire est limitée risquent de présenter des difficultés comportementales nuisibles à leur adaptation ultérieure. L’implication des parents à l’école, plus précisément la collaboration famille-école (CFE), peut représenter un facteur de protection favorisant l’adaptation de l’enfant tout au long de son parcours scolaire. Les écrits scientifiques suggèrent que la CFE jouerait un rôle important dans l’explication des difficultés de comportement, surtout auprès des enfants provenant de familles défavorisées. Cette étude porte sur le rôle de la CFE dans l’explication des difficultés de comportement intériorisé et extériorisé des enfants de maternelle qui présentaient des lacunes sur le plan de leur préparation scolaire. Les analyses de régression linéaire montrent que pour l’ensemble des familles de l’échantillon (n=47), plus il y a de communication entre le parent et l’enseignant, plus il y a présence de comportements extériorisés et intériorisés. Par contre, la CFE modère la relation entre un indice d’adversité constitué du cumul de cinq facteurs de risque sociodémographiques et les difficultés de comportement intériorisé. Ainsi, chez les familles défavorisées, une communication plus fréquente est associée à moins de comportements de type intériorisé.
Resumo:
Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.
Resumo:
Modélisations moléculaires réalisés avec le logiciel HyperChem 8.
Resumo:
Résumé : La prééclampsie (PE) est un désordre de la grossesse caractérisée par une dysfonction endothéliale faisant en sorte que l’endothélium devient moins sensible aux signaux de vasodilatation. La réponse provoquée par la liaison de la sérotonine au sous-type de récepteur S[indice inférieur 2] entraîne la libération de molécules aux propriétés vasoconstrictrices, qui, par une boucle de rétroaction positive, entraîne la libération de davantage de sérotonine par les plaquettes. Cette boucle amplifie la réponse et contribue ainsi à l’hypertension présente chez les femmes ayant une PE. Précédemment, il a été démontré par notre laboratoire que le Bisphénol A (BPA) s’accumulait davantage dans le placenta des femmes avec PE en comparaison aux femmes normotensives. Cette accumulation pourrait découler d’une perturbation de sa métabolisation qui impliquerait notamment la β-glucuronidase (GUSB). Des études chez les animaux ont quant à elles démontré que le BPA pouvait inhiber l’activité de la monoamine oxydase (MAO) à forte dose. Nous avons étudié l’effet du BPA à faible concentration (10 ng/ml) sur la MAO-A des cellules placentaires et démontré que le BPA inhibait la MAO-A de façon significative sans affecter son expression protéique. Afin d’expliquer l’accumulation particulière du BPA chez les femmes PE, nous avons comparé l’activité spécifique et l’expression protéique de la β-glucuronidase (GUSB) placentaire en utilisant un devis cas-témoins. Une tendance non significative suggère que la GUSB pourrait partiellement contribuer à l’accumulation du BPA chez les femmes PE. Nous avons étudié la relation entre la concentration sérique maternelle de BPA et la concentration à laquelle le fœtus est exposé par régression linéaire et corrélation de Spearman. Un tel modèle ne pourrait être utilisé pour déterminer de façon quantitative l’exposition fœtale. En revanche, en vue de la forte corrélation entre ces deux variables, une haute concentration sérique maternelle de BPA devrait se refléter par une haute exposition fœtale. Cette corrélation implique aussi que le métabolisme placentaire ne joue pas un rôle significatif dans la protection du fœtus. Le BPA pourrait ainsi contribuer à l’hypertension chez les femmes PE présentant une dysfonction endothéliale en inhibant la MAO-A et ainsi, favorisant la hausse de sérotonine circulante. Cette étude suggère les bases d’un mécanisme par lequel le BPA s’accumulerait davantage chez les femmes PE et affecterait ainsi la MAO-A placentaire et potentiellement, la MAO-A fœtale vu ses propriétés physico-chimiques.
Resumo:
Abstract: Quantitative Methods (QM) is a compulsory course in the Social Science program in CEGEP. Many QM instructors assign a number of homework exercises to give students the opportunity to practice the statistical methods, which enhances their learning. However, traditional written exercises have two significant disadvantages. The first is that the feedback process is often very slow. The second disadvantage is that written exercises can generate a large amount of correcting for the instructor. WeBWorK is an open-source system that allows instructors to write exercises which students answer online. Although originally designed to write exercises for math and science students, WeBWorK programming allows for the creation of a variety of questions which can be used in the Quantitative Methods course. Because many statistical exercises generate objective and quantitative answers, the system is able to instantly assess students’ responses and tell them whether they are right or wrong. This immediate feedback has been shown to be theoretically conducive to positive learning outcomes. In addition, the system can be set up to allow students to re-try the problem if they got it wrong. This has benefits both in terms of student motivation and reinforcing learning. Through the use of a quasi-experiment, this research project measured and analysed the effects of using WeBWorK exercises in the Quantitative Methods course at Vanier College. Three specific research questions were addressed. First, we looked at whether students who did the WeBWorK exercises got better grades than students who did written exercises. Second, we looked at whether students who completed more of the WeBWorK exercises got better grades than students who completed fewer of the WeBWorK exercises. Finally, we used a self-report survey to find out what students’ perceptions and opinions were of the WeBWorK and the written exercises. For the first research question, a crossover design was used in order to compare whether the group that did WeBWorK problems during one unit would score significantly higher on that unit test than the other group that did the written problems. We found no significant difference in grades between students who did the WeBWorK exercises and students who did the written exercises. The second research question looked at whether students who completed more of the WeBWorK exercises would get significantly higher grades than students who completed fewer of the WeBWorK exercises. The straight-line relationship between number of WeBWorK exercises completed and grades was positive in both groups. However, the correlation coefficients for these two variables showed no real pattern. Our third research question was investigated by using a survey to elicit students’ perceptions and opinions regarding the WeBWorK and written exercises. Students reported no difference in the amount of effort put into completing each type of exercise. Students were also asked to rate each type of exercise along six dimensions and a composite score was calculated. Overall, students gave a significantly higher score to the written exercises, and reported that they found the written exercises were better for understanding the basic statistical concepts and for learning the basic statistical methods. However, when presented with the choice of having only written or only WeBWorK exercises, slightly more students preferred or strongly preferred having only WeBWorK exercises. The results of this research suggest that the advantages of using WeBWorK to teach Quantitative Methods are variable. The WeBWorK system offers immediate feedback, which often seems to motivate students to try again if they do not have the correct answer. However, this does not necessarily translate into better performance on the written tests and on the final exam. What has been learned is that the WeBWorK system can be used by interested instructors to enhance student learning in the Quantitative Methods course. Further research may examine more specifically how this system can be used more effectively.
Resumo:
Abstract : CEGEPs are now reaping the ‘first fruits’ of the last Educational Reform in Quebec and as a result, ‘English as Second Language’ (ESL) teachers are noticing an improvement in fluency and a seemingly lower level of inhibition when it comes to production skills. However, this output is accompanied by a noticeable lack of accuracy. Keeping in mind that the purpose of language is communication, we need to find a way to reduce the number of basic common errors made by CEGEP ESL students, while maintaining a natural and motivating learning environment. Thanks to recent advances in computer-mediated communication (CMC), we now have the necessary tools to access peer native speakers throughout the world. Although this technology can be used for other language courses, this study explored the potential value of collaboration with native English speakers through the use of synchronous screen-sharing technology, in order to improve CEGEP ESL students’ accuracy in writing. The instrumentation used consisted of a questionnaire, tests, plus documents of collaborative tasks, using the ‘Google for Education’ screen-sharing tool. Fourteen Intermediate/Advanced ESL CEGEP students participated in this study. Despite the positive tendencies revealed, only a prolonged use of the innovative method yielded a significant positive impact. Moreover, a mixed linear regression for the group with more L1 intervention revealed a significant correlation between the number of errors in the task documents and the number of tasks accomplished. Thus, it could be inferred that ESL accuracy improves in proportion to the number of synchronous text-based screen-sharing tasks done with L1 collaboration.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.