166 resultados para Programmation
Resumo:
Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.
Resumo:
Le Régime des Prêts et bourses donne lieu à de nombreuses révisions annuellement par un grand nombre de candidats désireux d'obtenir plus du Gouvernement. Ces nombreuses demandes de révision sont parfois incomplètes, injustifiées, mal documentées et, parfois, elles ne sont même pas présentées, faute d'information. Le projet «Un système expert pour les Prêts et Bourses» tente de résoudre une partie du problème en offrant aux candidats et aux conseillers en milieux scolaires un outil qui permettrait à tous de pouvoir déterminer, facilement et exactement, le montant d'aide espéré. De plus, le prototype présenté explique au candidat les démarches à suivre et les documents nécessaires à une demande de révision si les résultats de son analyse ne correspondent pas avec ceux emmagasinés à Québec. Le prototype utilise les plus récents développements dans le domaine des logiciels commercial sur micro-ordinateurs dans les domaines suivants: bases de données et systèmes experts. Grâce à un mariage de programmation conventionnelle et de règles d'expertise, le système permet de définir rapidement la situation d'un candidat et de lui indiquer exactement ce à quoi il peut s'attendre du gouvernement. Le prototype a atteint ses objectifs principaux et il est fonctionnel. Son sort, en fonction des perfectionnements qu'il nécessite, est maintenant lié aux développements technologiques dans le domaine du matériel et du logiciel. La volonté des intervenants du milieu à mettre à la disposition des candidats un système avant-gardiste, première pierre d'un ensemble intégré de gestion des Prêts et Bourses, influencera aussi son utilisation future. Chose certaine, il est maintenant pensable de mettre au point des applications pratiques relativement complexes grâce à la technologie des systèmes experts et des bases de données et ce, sur micro-ordinateurs.
Resumo:
Dans le contexte de restrictions budgétaires où nous sommes présentement engagés, il deviendra de plus en plus nécessaire que les institutions démontrent l'efficacité de leurs services. Aux États-Unis depuis le début des années ‘70 on a, avec l'instauration du mouvement ''d'accountability", incité les intervenants du monde de la santé et de l'éducation à s'interroger sur l'efficacité des services dispensés. Au Québec, comme l'affirme Quesnel (1980), les institutions devront rendre des comptes en précisant les raisons qui expliquent s'ils ont atteint ou non les résultats souhaités. Au niveau des services de consultation, "l'accountability" permet d'établir une relation entre les consultants en psychologie et en orientation qui s'efforcent de rendre des comptes à leur directeur de service concernant le choix, la réalisation des activités et les résultats obtenus. Nous voulons par la présente recherche nous engager dans cette ère d'évaluation de qualités de services en utilisant un outil standardisé d'identification des préoccupations des étudiants du collégial, soit le questionnaire I.P.R. Ce questionnaire s'inscrit dans un processus d'où il tire d'ailleurs son titre : I pour identification des besoins des étudiants P pour programmation d'activités en réponse aux besoins exprimés R pour réalisation de la programmation et de l'évaluation Cet instrument subventionné par la Direction générale de l'enseignement collégial (D.G.E.C.) s'inscrit dans le cadre des modèles systémiques d'évaluation. Il permet aux services de psychologie, d'orientation, d'aide pédagogique individuelle, d'information scolaire et professionnelle, d'identifier l'importance des préoccupations des étudiants et de connaître leur besoin d'aide vis-à-vis ces préoccupations. À la lumière de ces résultats, les intervenants pourront programmer des activités répondant aux besoins des étudiants et pourront évaluer la réalisation de ces activités. […]
Resumo:
Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.
Resumo:
Les messages de retour programmés sur 44 didacticiels québécois ont été observés afin de faire ressortir les caractéristiques qu'ils comportent. Celles-ci ont été analysées à la lumière d'études expérimentales qui ont trait à l'apprentissage assisté par ordinateur, afin de pouvoir discuter de leurs effets sur les apprentissages et sur les attitudes des apprenants. Il ressort de ces discussions que certains messages sont judicieusement utilisés. Toutefois, ils sont généralement peu aidants face aux apprenants qui éprouvent de la difficulté à atteindre les objectifs d'apprentissage fixés. Ils sont généralement peu aidants aussi pour les apprenants qui ont un niveau préalable de maîtrise élevé face aux objectifs à atteindre. Les techniques d'affichage et d'émission des messages de retour n'utilisent pas le potentiel de l'ordinateur. Des pistes d'amélioration pour la programmation des messages de retour sont suggérées.
Resumo:
La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d’ordonnancement de grande envergure. L’ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d’un ordonnancement. Résoudre un problème d’ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l’exécuter. La plupart des problèmes d’ordonnancement sont NP-Difficiles. Conséquemment, il n’existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d’ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d’explorer ces algorithmes d’ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l’arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d’ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d’optimisation n’est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d’exécuter une tâche au temps t dépend de t.
Resumo:
Ce document est un rapport de synthèse des présentations faites lors des journées REMI, tenues à Nantes les 23 et 24 novembre 1998. Les exposés de la première journée sont principalement destinés aux actions visant à améliorer le fonctionnement du réseau REMI. Ils concernent les sujets suivants : bilan de la mise en oeuvre du réseau de contrôle REMI en 1998 (nouvelle version), bilan de l'état d'avancement du plan qualité surveillance microbiologique et du programme Malthus (méthodologie, normalisation), approches préliminaires pour la détermination des fréquences d'échantillonnage en vue de la surveillance régulière des zones de production classées. La seconde journée est dédiée aux études conduites par les laboratoires côtiers, dont les procédures sont définies par la charte de surveillance microbiologique, ou réalisées par le Laboratoire de Microbiologie. Le dispositif de programmation des études de surveillance et de saisie des données dans la base Quadrige est présenté. Les sujets abordés se rapportent aux thèmes suivants : impact de la plaisance, des populations aviaires, des rejets agricoles et urbains sur la contamination bactériologique des coquillages ou des eaux littorales, les bactériophages, évaluation de l'importance de la pêche récréative par survol aérien des gisements coquilliers, objectifs et réflexions sur les perspectives d'un système d'évaluation de la qualité des eaux littorales (SEQ Littoral). Le bilan des journées REMI s'analyse à travers les commentaires recueillis lors du tour de table, et le relevé des propositions d'actions.
Resumo:
Ce document contient une étude et une analyse du modèle de dispensation de services sociaux qui existe au Nouveau-Brunswick. Cette analyse et cette critique représentent un aboutissement car jamais, dans cette Province, une telle étude n'a été menée à terme. En plus d'être critique et analytique, cette étude contient des recommandations afin d'améliorer les nombreuses lacunes administratives et la programmation des activités conduite par ce Ministère. Les usagers des services offerts par le ministère des Services sociaux perçoivent difficilement les lacunes, mais vivent à tous les jours les déficiences dans la programmation des services. Il est donc proposé de donner juste valeur à tant de vécu par la clientèle et aux besoins exprimés par les intervenants sociaux. Ce document pourra aussi servir lors de la formation de futurs travailleurs sociaux. L'approche utilisée fera ressortir, par sa vision différente, les besoins exprimés par le client, et surtout les besoins et les valeurs véhiculées par les intervenants de première ligne. Nous sommes cependant d'avis que les administrateurs, dans ce système, ont le souci de bien gérer les capitaux provenant des taxes de tous les contribuables. La raison fondamentale de ce mémoire réside dans le questionnement suivant: Est-ce que la planification, la programmation et la gestion des activités et services répondent aux besoins exprimés par la clientèle? De plus, répondent-elles aux activités professionnelles menées par ses employés dans chacune des divisions? Nous allons tenter de répondre à ces interrogations dans les prochains chapitres. [...]
Resumo:
Résumé: Le surpoids et l’obésité dans la population pédiatrique sont des préoccupations grandissantes à l’échelle mondiale. Actuellement, au Canada, près de 21 % des jeunes Canadiens âgés de 2 à 5 ans présentent un surpoids et malheureusement, 6 % d’entre eux souffrent d’obésité. De plus, 80 % de ces enfants risquent d’être obèses à l’âge adulte, ce qui mène à plusieurs impacts sur la santé. Afin de prévenir l’obésité infantile, il est important d’identifier des facteurs de risques, notamment ceux se produisant tôt dans la vie. Plusieurs études ont démontré l’importance de l’environnement fœtal dans l’établissement de la santé métabolique à long terme. Le poids à la naissance a souvent été utilisé comme marqueur de l’exposition prénatale. Cependant, le poids à la naissance n’est qu’un marqueur grossier. L’adiposité à la naissance a été identifiée comme un facteur de risque plus important puisqu’elle permet de prédire de l’adiposité durant l’enfance. Les deux déterminants maternels majeurs de la croissance fœtale sont le statut pondéral et la glycémie maternelle. Récemment, une adipokine a été suggérée comme un déterminant potentiel dans la programmation fœtale de l’obésité. La leptine, qui est produite par les adipocytes, joue un rôle important dans la balance énergétique, mais elle semble aussi importante dans le développement de l’obésité postnatale. Durant la grossesse, le placenta produit une large quantité de leptine et la majorité est sécrétée du côté maternel. Appuyés par le fait que la leptine maternelle circulante est le reflet de la sécrétion placentaire de leptine, nous avons émis l’hypothèse que la leptine maternelle serait associée à l’adiposité du nouveau-né, et ce, indépendamment de la glycémie maternelle. Nous avons étudié la leptine durant l’hyperglycémie provoquée par voie orale (HGPO) chez les femmes enceintes au 2e trimestre. Nous avons montré, chez les femmes en surpoids ou obèse, qu’une plus haute leptine maternelle était lié à une adiposité néonatale augmentée à la naissance. D’un autre côté, chez les femmes minces, une glycémie élevée était liée à une adiposité néonatale augmentée. Ces associations sont indépendantes de la parité, du statut tabagique, du gain de poids durant la grossesse, des triglycérides maternels, du mode d’accouchement, du sexe du nouveau-né et de l’âge gestationnel à la naissance. Ces résultats suggèrent une régulation différentielle entre ces deux marqueurs métaboliques maternels et l’adiposité néonatale, selon le statut pondéral pré-grossesse.
Resumo:
Le logiciel est devenu omniprésent dans nos vies de sorte qu'on le retrouve dans plusieurs domaines de la vie courante. Cependant cette omniprésence, n'est pas sans conséquences. Les bogues de logiciel peuvent causer de vrais désastres, économiques, écologiques voire sanitaires. Vu la forte omniprésente du logiciel dans nos vies, le fonctionnement de nos sociétés dépend fortement de sa qualité. La programmation par contrat a pour but de produire des logiciels fiables, c'est-à-dire corrects et robustes. En effet, ce paradigme de programmation vise à introduire des assertions qui sont des spécifications de services. Ces spécifications représentent une forme de contrat. Les contrats définissent les responsabilités entre le client et le fournisseur. Le respect des contrats permet de garantir que le logiciel ne fait ni plus ni moins que ce que l'on attend de lui qu'il fasse. Le test unitaire est un test qui permet de s'assurer du bon fonctionnement d'une partie précise d'un logiciel. C'est un test dont la vérification se fait en exécutant une petite unité de code. En somme, un test unitaire est un code qui exécute de manière indirecte le code d'une classe pour vérifier que le code fonctionne bien. L'outil Génération de Squelettes des Contrats de classes et des tests unitaires (GACTUS) permet la génération automatique de squelettes de contrats de classes et celles des classes des tests unitaires d'un projet Java. La génération automatique du code source permet d'obtenir un code uniforme. GACTUS est un plug-in pour l'environnement de développement Eclipse écrit en Java. L'objectif principal de GACTUS est de faciliter la réalisation de logiciel de qualité grâce à la génération automatique des squelettes de contrats de classe et celui des tests unitaires et aussi d'accroître la productivité des développeurs. Pour faciliter son utilisation, GACTUS dispose d'une interface graphique permettant de guider l'utilisateur.
Resumo:
Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.
Resumo:
Abstract: Quantitative Methods (QM) is a compulsory course in the Social Science program in CEGEP. Many QM instructors assign a number of homework exercises to give students the opportunity to practice the statistical methods, which enhances their learning. However, traditional written exercises have two significant disadvantages. The first is that the feedback process is often very slow. The second disadvantage is that written exercises can generate a large amount of correcting for the instructor. WeBWorK is an open-source system that allows instructors to write exercises which students answer online. Although originally designed to write exercises for math and science students, WeBWorK programming allows for the creation of a variety of questions which can be used in the Quantitative Methods course. Because many statistical exercises generate objective and quantitative answers, the system is able to instantly assess students’ responses and tell them whether they are right or wrong. This immediate feedback has been shown to be theoretically conducive to positive learning outcomes. In addition, the system can be set up to allow students to re-try the problem if they got it wrong. This has benefits both in terms of student motivation and reinforcing learning. Through the use of a quasi-experiment, this research project measured and analysed the effects of using WeBWorK exercises in the Quantitative Methods course at Vanier College. Three specific research questions were addressed. First, we looked at whether students who did the WeBWorK exercises got better grades than students who did written exercises. Second, we looked at whether students who completed more of the WeBWorK exercises got better grades than students who completed fewer of the WeBWorK exercises. Finally, we used a self-report survey to find out what students’ perceptions and opinions were of the WeBWorK and the written exercises. For the first research question, a crossover design was used in order to compare whether the group that did WeBWorK problems during one unit would score significantly higher on that unit test than the other group that did the written problems. We found no significant difference in grades between students who did the WeBWorK exercises and students who did the written exercises. The second research question looked at whether students who completed more of the WeBWorK exercises would get significantly higher grades than students who completed fewer of the WeBWorK exercises. The straight-line relationship between number of WeBWorK exercises completed and grades was positive in both groups. However, the correlation coefficients for these two variables showed no real pattern. Our third research question was investigated by using a survey to elicit students’ perceptions and opinions regarding the WeBWorK and written exercises. Students reported no difference in the amount of effort put into completing each type of exercise. Students were also asked to rate each type of exercise along six dimensions and a composite score was calculated. Overall, students gave a significantly higher score to the written exercises, and reported that they found the written exercises were better for understanding the basic statistical concepts and for learning the basic statistical methods. However, when presented with the choice of having only written or only WeBWorK exercises, slightly more students preferred or strongly preferred having only WeBWorK exercises. The results of this research suggest that the advantages of using WeBWorK to teach Quantitative Methods are variable. The WeBWorK system offers immediate feedback, which often seems to motivate students to try again if they do not have the correct answer. However, this does not necessarily translate into better performance on the written tests and on the final exam. What has been learned is that the WeBWorK system can be used by interested instructors to enhance student learning in the Quantitative Methods course. Further research may examine more specifically how this system can be used more effectively.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.