603 resultados para Modélisation discrète
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
L’augmentation exponentielle de la demande de bande passante pour les communications laisse présager une saturation prochaine de la capacité des réseaux de télécommunications qui devrait se matérialiser au cours de la prochaine décennie. En effet, la théorie de l’information prédit que les effets non linéaires dans les fibres monomodes limite la capacité de transmission de celles-ci et peu de gain à ce niveau peut être espéré des techniques traditionnelles de multiplexage développées et utilisées jusqu’à présent dans les systèmes à haut débit. La dimension spatiale du canal optique est proposée comme un nouveau degré de liberté qui peut être utilisé pour augmenter le nombre de canaux de transmission et, par conséquent, résoudre cette menace de «crise de capacité». Ainsi, inspirée par les techniques micro-ondes, la technique émergente appelée multiplexage spatial (SDM) est une technologie prometteuse pour la création de réseaux optiques de prochaine génération. Pour réaliser le SDM dans les liens de fibres optiques, il faut réexaminer tous les dispositifs intégrés, les équipements et les sous-systèmes. Parmi ces éléments, l’amplificateur optique SDM est critique, en particulier pour les systèmes de transmission pour les longues distances. En raison des excellentes caractéristiques de l’amplificateur à fibre dopée à l’erbium (EDFA) utilisé dans les systèmes actuels de pointe, l’EDFA est à nouveau un candidat de choix pour la mise en œuvre des amplificateurs SDM pratiques. Toutefois, étant donné que le SDM introduit une variation spatiale du champ dans le plan transversal de la fibre, les amplificateurs à fibre dopée à l’erbium spatialement intégrés (SIEDFA) nécessitent une conception soignée. Dans cette thèse, nous examinons tout d’abord les progrès récents du SDM, en particulier les amplificateurs optiques SDM. Ensuite, nous identifions et discutons les principaux enjeux des SIEDFA qui exigent un examen scientifique. Suite à cela, la théorie des EDFA est brièvement présentée et une modélisation numérique pouvant être utilisée pour simuler les SIEDFA est proposée. Sur la base d’un outil de simulation fait maison, nous proposons une nouvelle conception des profils de dopage annulaire des fibres à quelques-modes dopées à l’erbium (ED-FMF) et nous évaluons numériquement la performance d’un amplificateur à un étage, avec fibre à dopage annulaire, à ainsi qu’un amplificateur à double étage pour les communications sur des fibres ne comportant que quelques modes. Par la suite, nous concevons des fibres dopées à l’erbium avec une gaine annulaire et multi-cœurs (ED-MCF). Nous avons évalué numériquement le recouvrement de la pompe avec les multiples cœurs de ces amplificateurs. En plus de la conception, nous fabriquons et caractérisons une fibre multi-cœurs à quelques modes dopées à l’erbium. Nous réalisons la première démonstration des amplificateurs à fibre optique spatialement intégrés incorporant de telles fibres dopées. Enfin, nous présentons les conclusions ainsi que les perspectives de cette recherche. La recherche et le développement des SIEDFA offriront d’énormes avantages non seulement pour les systèmes de transmission future SDM, mais aussi pour les systèmes de transmission monomode sur des fibres standards à un cœur car ils permettent de remplacer plusieurs amplificateurs par un amplificateur intégré.
Resumo:
Les lacs de thermokarst (lacs peu profonds créés par le dégel et l’érosion du pergélisol riche en glace) sont un type unique d’écosystèmes aquatiques reconnus comme étant de grands émetteurs de gaz à effet de serre vers l’atmosphère. Ils sont abondants dans le Québec subarctique et ils jouent un rôle important à l’échelle de la planète. Dans certaines régions, les lacs de thermokarst se transforment rapidement et deviennent plus grands et plus profonds. L’objectif de cette étude était d’améliorer la compréhension et d’évaluer quelles variables sont déterminantes pour la dynamique de l’oxygène dans ces lacs. C’est pourquoi j’ai examiné les possibles changements futurs de la dynamique de l’oxygène dans ces lacs dans un contexte de réchauffement climatique. Une grande variété de méthodes ont été utilisées afin de réaliser cette recherche, dont des analyses in situ et en laboratoire, ainsi que la modélisation. Des capteurs automatisés déployés dans cinq lacs ont mesuré l’oxygène, la conductivité et la température de la colonne d’eau en continu de l’été 2012 jusqu’à l’été 2015, à des intervalles compris entre 10 à 60 minutes. Des analyses en laboratoire ont permis de déterminer la respiration et les taux de production bactériens, les variables géochimiques limnologiques, ainsi que la distribution de la production bactérienne entre les différentes fractions de taille des communautés. La température de l’eau et les concentrations d’oxygène dissous d’un lac de thermokarst ont été modélisées avec des données du passé récent (1971) au climat futur (2095), en utilisant un scénario modéré (RCP 4.5) et un scénario plus extrême (RCP 8.5) de réchauffement climatique. Cette recherche doctorale a mis en évidence les conditions anoxiques fréquentes et persistantes présentes dans de nombreux lacs de thermokarst. Aussi, ces lacs sont stratifiés pendant l’hiver comme des concentrations élevées d’ions s’accumulent dans leurs hypolimnions à cause de la formation du couvert de glace (cryoconcentration) et de la libération des ions avec la respiration bactérienne. Les différences de température contribuent également à la stabilité de la stratification. La dynamique de mélange des lacs de thermokarst étudiés était contrastée : la colonne d’eau de certains lacs se mélangeait entièrement deux fois par année, d’autres lacs se mélangeaient qu’une seule fois en automne, alors que certains lacs ne se mélangeaient jamais entièrement. Les populations bactériennes étaient abondantes et très actives, avec des taux respiratoires comparables à ceux mesurés dans des écosystèmes méso-eutrophes ou eutrophes des zones tempérées de l’hémisphère nord. L’érosion des matériaux contenus dans le sol des tourbières pergélisolées procure un substrat riche en carbone et en éléments nutritifs aux populations bactériennes, et ils constituent des habitats propices à la colonisation par des populations de bactéries associées aux particules. Le modèle de la concentration d’oxygène dissous dans un lac a révélé que le réchauffement des températures de l’air pourrait amincir le couvert de glace et diminuer sa durée, intensifiant le transfert de l’oxygène atmosphérique vers les eaux de surface. Ainsi, la concentration en oxygène dissous dans la colonne d’eau de ce lac augmenterait et les périodes de conditions anoxiques pourraient devenir plus courtes. Finalement, cette thèse doctorale insiste sur le rôle des lacs de thermokarst comme des réacteurs biogéochimiques pour la dégradation du carbone organique, qui était retenu dans les sols gelés, en gaz à effet de serre libérés dans l’atmosphère. L’oxygène est un indicateur sensible du mélange de la colonne d’eau et de la dynamique chimique des lacs, en plus d’être une variable clé des processus métaboliques.
Resumo:
Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.
Resumo:
La modélisation de la cryolite, utilisée dans la fabrication de l’aluminium, implique plusieurs défis, notament la présence de discontinuités dans la solution et l’inclusion de la difference de densité entre les phases solide et liquide. Pour surmonter ces défis, plusieurs éléments novateurs ont été développés dans cette thèse. En premier lieu, le problème du changement de phase, communément appelé problème de Stefan, a été résolu en deux dimensions en utilisant la méthode des éléments finis étendue. Une formulation utilisant un multiplicateur de Lagrange stable spécialement développée et une interpolation enrichie a été utilisée pour imposer la température de fusion à l’interface. La vitesse de l’interface est déterminée par le saut dans le flux de chaleur à travers l’interface et a été calculée en utilisant la solution du multiplicateur de Lagrange. En second lieu, les effets convectifs ont été inclus par la résolution des équations de Stokes dans la phase liquide en utilisant la méthode des éléments finis étendue aussi. Troisièmement, le changement de densité entre les phases solide et liquide, généralement négligé dans la littérature, a été pris en compte par l’ajout d’une condition aux limites de vitesse non nulle à l’interface solide-liquide pour respecter la conservation de la masse dans le système. Des problèmes analytiques et numériques ont été résolus pour valider les divers composants du modèle et le système d’équations couplés. Les solutions aux problèmes numériques ont été comparées aux solutions obtenues avec l’algorithme de déplacement de maillage de Comsol. Ces comparaisons démontrent que le modèle par éléments finis étendue reproduit correctement le problème de changement phase avec densités variables.
Resumo:
Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
L étude se fonde sur la recherche du processus inhérent à la conception du projet par le biais de l approche architecturologique proposée par Philippe Boudon et al (2000) ; un modèle théorique qui sert de fondement à la construction d une connaissance de l architecture au moyen d une étude de la nature des opérations mentales de chaque architecte lorsqu il organise son travail de conception. La modélisation de l architecturologie concentre son étude sur le travail qui a lieu avant même la confection matérielle du projet (représentation graphique finale). De cette façon, douze projets furent analysés d architecture résidencielle unifamiliale; conçus récemment par six architectes « potiguares » pour Natal et sa région périphérique. Les résultats mettent en évidence un ensemble de modèles substrats (comme point de départ) et téléologiques (comme point d arrivée) adoptés par les auteurs au cours de la conception de leurs projets. Ces modèles, de façon générale, sont liés aux pertinences socio-culturelles (conventions, formes traditionnelles ou coutumes) du contexte pour lesquels ils sont conçus (lotissements privés de co-propriété des classes moyennes et moyennes-supérieures) et en même temps, ils sont le fruit de croyances, d idéologies et d expériences antérieures propres à l espace de la conception de chaque architecte
Resumo:
La caractérisation détaillée de vastes territoires pose un défi de taille et est souvent limitée par les ressources disponibles et le temps. Les travaux de cette maîtrise s’incorporent au projet ParaChute qui porte sur le développement d’une Méthode québécoise d’Évaluation du Danger des Chutes de Pierres (MEDCP) le long d’infrastructures linéaires. Pour optimiser l’utilisation des ressources et du temps, une méthode partiellement automatisée facilitant la planification des travaux de terrain a été développée. Elle se base principalement sur la modélisation des trajectoires de chutes de pierres 3D pour mieux cibler les falaises naturelles potentiellement problématiques. Des outils d’automatisation ont été développés afin de permettre la réalisation des modélisations sur de vastes territoires. Les secteurs où l’infrastructure a le plus de potentiel d’être atteinte par d’éventuelles chutes de pierres sont identifiés à partir des portions de l’infrastructure les plus traversées par les trajectoires simulées. La méthode a été appliquée le long du chemin de fer de la compagnie ArcelorMittal Infrastructures Canada. Le secteur couvert par l’étude débute à une dizaine de kilomètres au nord de Port-Cartier (Québec) et s’étend sur 260 km jusqu’au nord des monts Groulx. La topographie obtenue de levés LiDAR aéroportés est utilisée afin de modéliser les trajectoires en 3D à l’aide du logiciel Rockyfor3D. Dans ce mémoire, une approche facilitant la caractérisation des chutes de pierres le long d’un tracé linéaire est présentée. Des études de trajectoires préliminaires sont réalisées avant les travaux sur le terrain. Les informations tirées de ces modélisations permettent de cibler les secteurs potentiellement problématiques et d’éliminer ceux qui ne sont pas susceptibles de générer des chutes de pierres avec le potentiel d’atteindre les éléments à risque le long de l’infrastructure linéaire.
Resumo:
Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème;90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%;68%) chez les femmes et 36%(28%;61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%;100%) chez les femmes et 83%(75%;100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%;32%) chez les femmes et 35%(27%;39%) chez les hommes à 40% de couverture, et 7%(0%;10%) et 16%(1%;25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11.
Resumo:
Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.
Resumo:
Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound.
Resumo:
Le présent essai dépeint un exercice de modélisation d'un programme de promotion de la relation parents-enseignants d'enfants du premier cycle du primaire. Nous nous sommes questionnés, au cours de l'étude de ce programme, sur les quatre (4) facteurs suivants : (1) le mandat de l'intervention ; (2) l'environnement dans lequel il doit être implanté ; (3) le professionnel responsable de la mise en oeuvre ; (4) la stratégie d'intervention à privilégier pour l'atteinte des buts et des objectifs. Une recherche théorique, auprès d'auteurs ayant exploré le domaine, permet tout d'abord l'approfondissement de ces quatre (4) enjeux. Elle permet, en ce sens, de déterminer un noyau conducteur, qui facilitera le transfert du programme de relation parents-enseignants d'enfants du premier cycle du primaire à d'autres milieux et face à d'autres problématiques. Ces facteurs, constituant la base d'un nouveau programme, sont : (1) promotion ; (2) milieu scolaire urbain ; (3) service social ; (4) conscientisation. Nous avons démontré que l'école et la famille sont deux (2) institutions de notre société qui se sont développées parallèlement et de façon hermétique, accentuant ainsi l'inaccessibilité de part et d'autre. L'analyse théorique nous a permis d'harmoniser les quatre (4) facteurs de notre premier programme dont nous questionnions les possibilités d'interaction. Afin de mettre en oeuvre un nouveau programme plus général appliqué au monde scolaire et à d'autres milieux, nous devions valider ce dernier programme pour appuyer et justifier notre intervention. Pour ce faire, des rencontres avec des acteurs particulièrement susceptibles d'être impliqués dans l'élaboration ou la mise en oeuvre du second programme ont eu lieu. Ces rencontres ont constitué l'analyse pratique de ce deuxième programme et ont permis de le redéfinir afin qu'il réponde davantage aux besoins de modélisation du présent essai. L'analyse théorique et pratique faite au cours de l'essai démontre que la collaboration entre la famille et l'école est difficile parce que l'objet qui unit ces deux (2) groupes constitue la spécificité de l'un ou de l'autre. En effet, l'éducation scolaire est l'objet qui unit parents et enseignants et actuellement, les enseignants sont les professionnels de l'éducation scolaire des enfants. Cela accentue l'écart entre les pouvoirs d'intervention des parents et des enseignants. Finalement, les exercices effectués au cours du présent essai nous ont permis de généraliser notre intervention non seulement au lien parents-enseignants mais également à la relation existant entre tout système ayant des possibilités inégales d'intervention.
Resumo:
Le présent rapport constitue une première présentation des résultats de l'Etude pilote des apports en contaminants par la Seine. Il est consacré aux métaux et à l'arsenic et traite de leurs niveaux de concentration, de leurs variations saisonnières et des flux à l'estuaire. Il comporte des fiches-annexes qui contiennent les méthodes de prélèvement, de filtration et de dosage ainsi que des résumés des résultats. A partir des conclusions, des recommandations sont faites quant aux méthodes à privilégier pour tirer les meilleurs enseignements du suivi des contaminants métalliques et de l'arsenic à la limite amont de l'estuaire de la Seine. Les données contenues dans ce rapport ont été produites par la Cellule de lutte contre la pollution (Service de navigation de la Seine), le laboratoire Chimie des contaminants et modélisation (IFREMER) et le Laboratoire municipal et régional de Rouen.
Resumo:
Les aspirateurs de turbines hydrauliques jouent un rôle crucial dans l’extraction de l’énergie disponible. Dans ce projet, les écoulements dans l’aspirateur d’une turbine de basse chute ont été simulés à l’aide de différents modèles de turbulence dont le modèle DDES, un hybride LES/RANS, qui permet de résoudre une partie du spectre turbulent. Déterminer des conditions aux limites pour ce modèle à l’entrée de l’aspirateur est un défi. Des profils d’entrée 1D axisymétriques et 2D instationnaires tenant compte des sillages et vortex induits par les aubes de la roue ont notamment été testés. Une fluctuation artificielle a également été imposée, afin d’imiter la turbulence qui existe juste après la roue. Les simulations ont été effectuées pour deux configurations d’aspirateur du projet BulbT. Pour la deuxième, plusieurs comparaisons avec des données expérimentales ont été faites pour deux conditions d’opération, à charge partielle et dans la zone de baisse rapide du rendement après le point de meilleur rendement. Cela a permis d’évaluer l’efficacité et les lacunes de la modélisation turbulente et des conditions limites à travers leurs effets sur les quantités globales et locales. Les résultats ont montrés que les structures tourbillonnaires et sillages sortant de la roue sont adéquatement résolus par les simulations DDES de l’aspirateur, en appliquant les profils instationnaires bidimensionnels et un schéma de faible dissipation pour le terme convectif. En outre, les effets de la turbulence artificielle à l’entrée de l’aspirateur ont été explorés à l’aide de l’estimation de l’intermittence du décollement, de corrélations en deux points, du spectre d’énergie et du concept de structures cohérentes lagrangiennes. Ces analyses ont montré que les détails de la dynamique de l’écoulement et de la séparation sont modifiés, ainsi que les patrons des lignes de transport à divers endroits de l’aspirateur. Cependant, les quantités globales comme le coefficient de récupération de l’aspirateur ne sont pas influencées par ces spécificités locales.