30 resultados para [JEL:C15] Mathématiques et méthodes quantitatives - Économétrie et méthodes statistiques
Resumo:
Le lessivage des nitrates, la contamination de la nappe phréatique et l’eutrophisation des cours d’eau figurent parmi les enjeux planétaires qui affectent la durabilité de l’agriculture et des ressources naturelles. Ce mémoire présente le développement d’une première génération d’un nouveau senseur électrochimique pour le dosage de précisions des nitrates. Celui-ci est basé sur la spectroscopie d’impédance électrochimique d’une membrane polymérique sélective aux ions. Grâce à cette approche, un senseur compact et abordable a été produit. Par son utilisation en solutions aqueuses et en substrats de croissance saturés, il a été montré que le senseur permettait de quantifier des ajouts contrôlés de nitrates allant de 0,6 ppm à 60 ppm. La mise en application en substrat de croissance a pu être étudiée en comparaison avec des méthodes certifiées ISO 17025 visant l’analyse de ces substrats. Le senseur a aussi montré une grande versatilité par son utilisation sur divers appareils de mesure d’impédance. En plus, il a démontré une stabilité possible suite à une implantation d’un mois directement en substrat de croissance sous les variables environnementales d’une pépinière forestière. Par l’étude du spectre d’impédance du senseur en solutions pures de différentes concentrations, il a aussi été possible de proposer le circuit électrique équivalent du système, qui met en évidence deux parcours compétitifs du courant, un au coeur de la membrane et un deuxième en solution. Les résultats de ces travaux sont au coeur de deux publications scientifiques dont le manuscrit est inclus à ce mémoire. Pour finir cette étude, des suggestions seront faites pour guider l’amélioration du senseur par le développement d’une deuxième génération de celui-ci.
Resumo:
L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.
Resumo:
OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.
Resumo:
Ce mémoire présente 2 types de méthodes pour effectuer la réorientation d’un robot sériel en chute libre en utilisant les mouvements internes de celui-ci. Ces mouvements sont prescrits à partir d’algorithmes de planification de trajectoire basés sur le modèle dynamique du robot. La première méthode tente de réorienter le robot en appliquant une technique d’optimisation locale fonctionnant avec une fonction potentielle décrivant l’orientation du système, et la deuxième méthode applique des fonctions sinusoïdales aux articulations pour réorienter le robot. Pour tester les performances des méthodes en simulation, on tente de réorienter le robot pour une configuration initiale et finale identiques où toutes les membrures sont alignées mais avec le robot ayant complété une rotation de 180 degrés sur lui-même. Afin de comparer les résultats obtenus avec la réalité, un prototype de robot sériel plan flottant possédant trois membrures et deux liaisons rotoïdes est construit. Les expérimentations effectuées montrent que le prototype est capable d’atteindre les réorientations prescrites si peu de perturbations extérieures sont présentes et ce, même si le contrôle de l’orientation est effectué en boucle ouverte.
Resumo:
Cette thèse examine le rôle du pouvoir de marché dans le marché bancaire. L’emphase est mis sur la prise de risque, les économies d’échelle, l’efficacité économique du marché et la transmission des chocs. Le premier chapitre présente un modèle d’équilibre général dynamique stochastique en économie ouverte comprenant un marché bancaire en concurrence monopolistique. Suivant l’hypothèse de Krugman (1979, 1980) sur la relation entre les économies d’échelle et les exportations, les banques doivent défrayer un coût de transaction pour échanger à l’étranger qui diminue à mesure que le volume de leurs activités locales augmente. Cela incite les banques à réduire leur marge locale afin de profiter davantage du marché extérieur. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats obtenus indiquent que deux forces contraires, les économies d’échelle et le pouvoir de marché, s’affrontent lorsque le marché se concentre. La concentration permet aussi aux banques d’accroître leurs activités étrangères, ce qui les rend en contrepartie plus vulnérables aux chocs extérieurs. Le deuxième chapitre élabore un cadre de travail semblable, mais à l’intérieur duquel les banques font face à un risque de crédit. Celui-ci est partiellement assuré par un collatéral fourni par les entrepreneurs et peut être limité à l’aide d’un effort financier. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats montrent qu’un plus grand pouvoir de marché réduit la taille du marché financier et de la production à l’état stationnaire, mais incite les banques à prendre moins de risques. De plus, les économies dont le marché bancaire est fortement concentré sont moins sensibles à certains chocs puisque les marges plus élevés donnent initialement de la marge de manoeuvre aux banques en cas de chocs négatifs. Cet effet modérateur est éliminé lorsqu’il est possible pour les banques d’entrer et de sortir librement du marché. Une autre extension avec économies d’échelle montre que sous certaines conditions, un marché moyennement concentré est optimal pour l’économie. Le troisième chapitre utilise un modèle en analyse de portefeuille de type Moyenne-Variance afin de représenter une banque détenant du pouvoir de marché. Le rendement des dépôts et des actifs peut varier selon la quantité échangée, ce qui modifie le choix de portefeuille de la banque. Celle-ci tend à choisir un portefeuille dont la variance est plus faible lorsqu’elle est en mesure d’obtenir un rendement plus élevé sur un actif. Le pouvoir de marché sur les dépôts amène un résultat sembable pour un pouvoir de marché modéré, mais la variance finit par augmenter une fois un certain niveau atteint. Les résultats sont robustes pour différentes fonctions de demandes.
Resumo:
Les lacs de thermokarst (lacs peu profonds créés par le dégel et l’érosion du pergélisol riche en glace) sont un type unique d’écosystèmes aquatiques reconnus comme étant de grands émetteurs de gaz à effet de serre vers l’atmosphère. Ils sont abondants dans le Québec subarctique et ils jouent un rôle important à l’échelle de la planète. Dans certaines régions, les lacs de thermokarst se transforment rapidement et deviennent plus grands et plus profonds. L’objectif de cette étude était d’améliorer la compréhension et d’évaluer quelles variables sont déterminantes pour la dynamique de l’oxygène dans ces lacs. C’est pourquoi j’ai examiné les possibles changements futurs de la dynamique de l’oxygène dans ces lacs dans un contexte de réchauffement climatique. Une grande variété de méthodes ont été utilisées afin de réaliser cette recherche, dont des analyses in situ et en laboratoire, ainsi que la modélisation. Des capteurs automatisés déployés dans cinq lacs ont mesuré l’oxygène, la conductivité et la température de la colonne d’eau en continu de l’été 2012 jusqu’à l’été 2015, à des intervalles compris entre 10 à 60 minutes. Des analyses en laboratoire ont permis de déterminer la respiration et les taux de production bactériens, les variables géochimiques limnologiques, ainsi que la distribution de la production bactérienne entre les différentes fractions de taille des communautés. La température de l’eau et les concentrations d’oxygène dissous d’un lac de thermokarst ont été modélisées avec des données du passé récent (1971) au climat futur (2095), en utilisant un scénario modéré (RCP 4.5) et un scénario plus extrême (RCP 8.5) de réchauffement climatique. Cette recherche doctorale a mis en évidence les conditions anoxiques fréquentes et persistantes présentes dans de nombreux lacs de thermokarst. Aussi, ces lacs sont stratifiés pendant l’hiver comme des concentrations élevées d’ions s’accumulent dans leurs hypolimnions à cause de la formation du couvert de glace (cryoconcentration) et de la libération des ions avec la respiration bactérienne. Les différences de température contribuent également à la stabilité de la stratification. La dynamique de mélange des lacs de thermokarst étudiés était contrastée : la colonne d’eau de certains lacs se mélangeait entièrement deux fois par année, d’autres lacs se mélangeaient qu’une seule fois en automne, alors que certains lacs ne se mélangeaient jamais entièrement. Les populations bactériennes étaient abondantes et très actives, avec des taux respiratoires comparables à ceux mesurés dans des écosystèmes méso-eutrophes ou eutrophes des zones tempérées de l’hémisphère nord. L’érosion des matériaux contenus dans le sol des tourbières pergélisolées procure un substrat riche en carbone et en éléments nutritifs aux populations bactériennes, et ils constituent des habitats propices à la colonisation par des populations de bactéries associées aux particules. Le modèle de la concentration d’oxygène dissous dans un lac a révélé que le réchauffement des températures de l’air pourrait amincir le couvert de glace et diminuer sa durée, intensifiant le transfert de l’oxygène atmosphérique vers les eaux de surface. Ainsi, la concentration en oxygène dissous dans la colonne d’eau de ce lac augmenterait et les périodes de conditions anoxiques pourraient devenir plus courtes. Finalement, cette thèse doctorale insiste sur le rôle des lacs de thermokarst comme des réacteurs biogéochimiques pour la dégradation du carbone organique, qui était retenu dans les sols gelés, en gaz à effet de serre libérés dans l’atmosphère. L’oxygène est un indicateur sensible du mélange de la colonne d’eau et de la dynamique chimique des lacs, en plus d’être une variable clé des processus métaboliques.
Resumo:
L’imagerie hyperspectrale (HSI) fournit de l’information spatiale et spectrale concernant l’émissivité de la surface des matériaux, ce qui peut être utilisée pour l’identification des minéraux. Pour cela, un matériel de référence ou endmember, qui en minéralogie est la forme la plus pure d’un minéral, est nécessaire. L’objectif principal de ce projet est l’identification des minéraux par imagerie hyperspectrale. Les informations de l’imagerie hyperspectrale ont été enregistrées à partir de l’énergie réfléchie de la surface du minéral. L’énergie solaire est la source d’énergie dans l’imagerie hyperspectrale de télédétection, alors qu’un élément chauffant est la source d’énergie utilisée dans les expériences de laboratoire. Dans la première étape de ce travail, les signatures spectrales des minéraux purs sont obtenues avec la caméra hyperspectrale, qui mesure le rayonnement réfléchi par la surface des minéraux. Dans ce projet, deux séries d’expériences ont été menées dans différentes plages de longueurs d’onde (0,4 à 1 µm et 7,7 à 11,8 µm). Dans la deuxième partie de ce projet, les signatures spectrales obtenues des échantillons individuels sont comparées avec des signatures spectrales de la bibliothèque hyperspectrale de l’ASTER. Dans la troisième partie, trois méthodes différentes de classification hyperspectrale sont considérées pour la classification. Spectral Angle Mapper (SAM), Spectral Information Divergence (SID), et Intercorrélation normalisée (NCC). Enfin, un système d’apprentissage automatique, Extreme Learning Machine (ELM), est utilisé pour identifier les minéraux. Deux types d’échantillons ont été utilisés dans ce projet. Le système d’ELM est divisé en deux parties, la phase d’entraînement et la phase de test du système. Dans la phase d’entraînement, la signature d’un seul échantillon minéral est entrée dans le système, et dans la phase du test, les signatures spectrales des différents minéraux, qui sont entrées dans la phase d’entraînement, sont comparées par rapport à des échantillons de minéraux mixtes afin de les identifier.
Resumo:
Contexte : Les effets cumulés des contraintes psychosociales du modèle déséquilibre efforts-reconnaissance (DER) sur la santé mentale sont peu connus. Aussi, peu d’études ont évalué les effets du DER sur des indicateurs objectifs de problèmes de santé mentale (PSM). Enfin, aucune étude prospective antérieure n’a évalué l’effet combiné des contraintes psychosociales du DER et du modèle demande-latitude (DL) et sur les PSM médicalement certifiés. La présente thèse vise à combler ces limites. Objectifs : 1) Mesurer l’effet de l’exposition cumulée au déséquilibre efforts-reconnaissance sur la prévalence de la détresse psychologique sur une période de cinq ans; 2) Mesurer l’effet du déséquilibre efforts-reconnaissance sur l’incidence des absences médicalement certifiées pour PSM sur une période de cinq ans; 3) Évaluer l’effet indépendant et l’effet combiné des contraintes psychosociales des modèles Demande-Latitude et Déséquilibre Efforts-Reconnaissance sur l’incidence des absences médicalement certifiées pour PSM sur une période de cinq ans. Méthodes : La cohorte était constituée de plus de 2000 hommes et femmes occupant des emplois de cols blancs. La collecte des données a été réalisée à trois reprises avec une moyenne de suivi de cinq ans. À chaque temps, les contraintes psychosociales et la détresse psychologique ont été mesurées à l’aide d’instruments validés. Les absences médicalement certifiées pour PSM ont été récoltées à partir des fichiers administratifs des employeurs. Les PSM ont été modélisés à l’aide des régressions log-binomiale et de Cox. Les analyses ont été réalisées séparément chez les hommes et les femmes, en ajustant pour les principaux facteurs de confusion. Résultats : Chez les hommes et les femmes, une exposition chronique au DER sur trois ans était associée à une prévalence plus élevée de la détresse psychologique. Les effets observés à trois ans ont persisté à cinq ans chez les hommes (Rapport de prévalence (RP)=1,91 (1,20–3,04)) et les femmes (RP=2,48 (1,97–3,11)). Ces effets étaient de plus grande amplitude que ceux observés en utilisant l’exposition initiale à l’entrée dans l’étude (de +0,30 à +0,94). Par ailleurs, les hommes et les femmes exposés au DER présentaient un risque plus élevé d’absences médicalement certifiées pour PSM (Risque relatif (RR)=1,38 (1,08–1,76)), comparés aux travailleurs non-exposés. La faible reconnaissance au travail était associée à un risque important d’absences pour PSM chez les hommes (RR=3,04 (1,46–6,33)) mais pas chez les femmes (RR=1,24 (0,90–1,72)). Chez les femmes uniquement, un effet indépendant du « job strain » (RR=1,50 (1,12–2,07)) et du DER (RR=1,34 (0,98–1,84)), ainsi qu’un effet de l’exposition combinée au « job strain » (demande psychologique élevée et faible latitude décisionnelle) et au DER (RR=1,97 (1,40–2,78)) sur le risque d’absences médicalement certifiées pour PSM ont également été observés. Conclusion : Les résultats de cette thèse supportent l’effet délétère de l’exposition au DER sur la prévalence de la détresse psychologique et sur le risque d’absences médicalement certifiées pour PSM chez les hommes et les femmes. Chez les hommes et les femmes, l’exposition cumulée au DER était associée à une prévalence élevée de la détresse psychologique à trois ans et à cinq ans. De plus, les contraintes psychosociales du DER ont été associées aux absences médicalement certifiés pour PSM. Chez les femmes particulièrement, un effet combiné du « job strain » et du DER était associé à un risque plus élevé d’absences médicalement certifiées pour PSM, que l’exposition à un seul des deux facteurs. Ces résultats suggèrent que la réduction des contraintes psychosociales au travail pourrait contribuer à réduire l’incidence des PSM, incluant les absences médicalement certifiées pour PSM.
Resumo:
D’abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d’ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d’opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s’appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d’atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d’onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d’utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.
Resumo:
Cette étude évalue l’impact des formations formelles sur le revenu et la durée du chômage des immigrants de la classe des travailleurs qualifiés résidant dans la province de Québec. En effet, elle cherche à vérifier l’adéquation entre les formations formelles et les caractéristiques observables de ces immigrants d’une part, puis l’adéquation entre ces formations et la situation économique des immigrants d’autre part. Après avoir effectué une analyse descriptive de la base de données, la méthode d’appariement multiple basée sur les scores de propension généralisés est utilisée pour estimer l’effet causal des formations formelles sur le revenu et la durée du chômage des immigrants. De plus, la méthode de régression par quantile est utilisée pour faire ressortir l’effet causal de ces formations par quantile. En moyenne, les résultats de l’étude montrent que les formations formelles diminuent la durée de chômage des participants, avec une baisse de 580 jours pour les participants aux formations linguistiques. Les effets quantiles des formations professionnelles et académiques sont plus élevés sur le 75è quantile des distributions de la durée du chômage, avec des baisses respectives de 491 et 495 jours. Cependant, les formations formelles n’augmentent pas le revenu des participants. C’est pourquoi le gouvernement du Québec doit bien clarifier ses objectifs d’immigration selon l’augmentation de l’employabilité d’une part ou selon l’augmentation du niveau salarial d’autre part. Pour une optimisation des ressources, il est recommandé au gouvernement d’orienter les immigrants vers les formations linguistiques car elles diminuent plus la durée du chômage et de chercher la meilleure politique qui permettrait de rattraper l’écart salarial entre les participants et les non-participants des formations.
Resumo:
Ce mémoire décrit, en premier lieu, l’analyse géotechnique et géomorphologique du glissement de 1971 à Casselman, Ontario. Les caractéristiques morphologiques identifiées à l’intérieur de la cicatrice confirment qu’il s’agit d’un étalement. Le sol impliqué est une argile sensible de la mer de Champlain, normalement à légèrement surconsolidée (OCR entre 1,0 et 1,2) dont les indices de liquidité varient entre 1,0 et 2,0. La résistance au cisaillement intacte mesurée au scissomètre de chantier varie entre 50 kPa et 87 kPa. L’argile adopte un comportement anti-écrouissage (perte de 40 % de la résistance en pic) lorsque soumise à des essais de cisaillement non-drainé. Une surface de rupture quasi-horizontale à deux niveaux principaux a été identifiée à partir des sondages au piézocône réalisés à l’intérieur de la cicatrice. Les coefficients de sécurité élevés obtenus à partir de méthodes à l’équilibre limite démontrent que la rétrogression ne peut être expliquée par des méthodes d’analyses conventionnelles. La deuxième partie du mémoire présente l’application numérique du principe de rupture progressive aux étalements de Casselman (1971) et de Saint-Luc-de-Vincennes (1986). Une étude paramétrique a été réalisée afin d’évaluer l’influence de la fragilité du comportement après la résistance en pic du sol, reliée dans l’étude à une épaisseur de bande de cisaillement, ainsi que de la résistance à grande déformation, sur l’initiation et la rétrogression résultant du processus de rupture progressive. Les résultats démontrent que la résistance à grande déformation a très peu d’influence sur l’initiation du processus de rupture progressive, qui est principalement influencé par la fragilité du comportement du sol. Il a aussi été observé que la rétrogression était majoritairement influencée par la résistance à grande déformation.
Resumo:
Au cours de ces dernières années, les techniques d’échantillonnage équilibré ont connu un regain d’intérêt. En effet, ces techniques permettent de reproduire la structure de la population dans des échantillons afin d’améliorer l’efficacité des estimations. La reproduction de cette structure est effectuée par l’introduction des contraintes aux plans de sondage. Encore récemment, des nouvelles procédures d’échantillonnage équilibré ont été proposées. Il s’agit notamment de la méthode du cube présentée par Deville et Tillé (2004) et de l’algorithme réjectif de Fuller (2009). Alors que la première est une méthode exacte de sélection, la seconde est une approche approximative qui admet une certaine tolérance dans la sélection. Alors, après une brève présentation de ces deux méthodes dans le cadre d’un inventaire de pêcheurs, nous comparons à l’aide de simulations Monte Carlo, les plans de sondage produits par ces deux méthodes. Aussi, cela a été l’occasion pour nous de vérifier si ces méthodes modifient les probabilités de sélection des unités.
Resumo:
Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.
Resumo:
Plusieurs facteurs d’ordre environnemental, social ou individuel peuvent influencer l’adhésion à une saine alimentation. Parmi les déterminants individuels, les connaissances en nutrition ont un rôle à jouer. D’ailleurs, de nombreux programmes de promotion de la saine alimentation se basent sur une amélioration des connaissances en nutrition pour engendrer des changements positifs dans les comportements et les apports alimentaires de la population. Plusieurs études ont associé positivement le niveau de connaissances en nutrition et l’alimentation saine, mais il a été observé que les associations sont plus marquées avec l’utilisation de questionnaires validés sur les connaissances en nutrition. Une validation rigoureuse des questionnaires est donc primordiale pour assurer la validité des résultats obtenus. Au Canada, il n’existe pas d’outil spécifiquement conçu pour mesurer les connaissances en nutrition et plus précisément l’adhésion à la saine alimentation telle que présentée par le Guide alimentaire canadien (GAC), et ce mémoire illustre la pertinence d’un tel instrument pour la population canadienne. Les résultats de la validation ont mené à l’obtention d’un questionnaire valide et fiable pour la population à l’étude. L’usage de documents reconnus dans la littérature pour la conception du questionnaire de même que l’application de plusieurs méthodes de validation telles qu’utilisées par d’autres auteurs dans le domaine ont permis de bien valider l’instrument. Le questionnaire développé pourrait donc permettre la mesure adéquate des connaissances en nutrition dans un contexte canadien-français.
Resumo:
Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound.