133 resultados para résolution de problèmes
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Il est difficile, en sociologie, de parler des problèmes éducatifs sans remettre sur le tapis les définitions de la socialisation, des normes et des valeurs; sans faire un détour sur le passé en rapport avec l’avenir; et sans questionner le rôle des sociologues dans la société. Notre travail vise à faire état des débats sur ces questions délicates, tout en proposant d’autres pistes pouvant alimenter la réflexion. Ainsi, à partir d’une étude de terrain avec des enfants du primaire, on essayera de mettre de l’avant ce qu’on appellera des problèmes culturels, dont la résolution est fonction de la capacité humaine d’innover. Le regard tourné vers les nuisances, pratiques nocives au développement de cette capacité, on s’interrogera sur les conditions de maintien de la vie sociale humaine.
Resumo:
Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.
Resumo:
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.
Resumo:
Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.
Resumo:
Rapport de recherche
Resumo:
L'arbitrage a joué un rôle majeur dans l'élaboration d'un droit international ou «transnational», surtout par l'effort fourni au sein des institutions arbitrales qui se trouvent de nos jours partout dans le monde, et les conventions arbitrales qui jouent un rôle extraordinaire dans le domaine de la codification des principes et des dispositions internationales. Celles-ci visent entre autres à résoudre les problèmes liés aux désignations et récusations des arbitres. Il résulte que plusieurs ordres normatifs ont créé des règles pour régir les questions de nomination et de récusation des arbitres. Elles ont une importance proportionnelle qui dépend de l'organisme qui les établit, de sa réputation et de sa crédibilité parmi les commerçants. Nous pouvons trouver des règles sur des questions de nomination et de récusation des arbitres dans les lois étatiques, les conventions internationales, les lois types, et dans les règlements d'arbitrage. L'analyse de ces divers ordres normatifs qui ont disposé des règles pour résoudre les problèmes de désignation et de récusation des arbitres nous permet d'évaluer leur efficacité pour rendre des solutions appropriées aux problèmes rencontrés lors de la constitution du tribunal arbitral. Par ailleurs, nous savons que la finalité espérée de la sentence arbitrale est la possibilité d'être exécutoire, et que cette étape de la procédure est régie par la convention des Nations Unies de 1958, dite « convention de New York de 1958 » pour la reconnaissance et l'exécution des sentences arbitrales. Cette convention établit les conditions qu'on doit respecter - entre autres - lors de la constitution du tribunal arbitral pour qu'une sentence arbitrale puisse obtenir une force exécutoire, d'où nous observons que l'influence de l'irrégularité de la désignation des arbitres peut être très pénible, car, par l'application de l'article V de la convention de New York, la sentence peut être refusée par le juge étatique. En fait, quand les parties contractantes dans des contrats internationaux favorisent le choix de l'institution arbitrale pour régler les différends qui pourraient naître entre eux, cela veut dire que ces parties ont confiance envers cette institution de justice. Mais les problèmes rencontrés lors de la constitution du tribunal arbitral peuvent perturber la confiance de ces parties en cette institution de justice, d'où il sera nécessaire de trouver des solutions efficaces pour rendre l'étape de la constitution du tribunal sécuritaire pour pouvoir solliciter le recours à cette méthode de règlement de différends sans éprouver de crainte sur l'efficacité de la procédure de désignation, de récusation et de remplacement des arbitres. En somme, il est primordial d'assurer la nature privée et contractuelle du contrat d'arbitrage, et d'éviter les risques d'insécurité et d'imprévisibilité qui nuisent au bon développement des relations contractuelles internationales.
Resumo:
Malgré les avancées médicales, la prédiction précoce du devenir développemental des enfants nés prématurément demeure un défi. Ces enfants sont à risque de séquelles plus ou moins sévères telles l'infirmité motrice d'origine cérébrale, les déficiences intellectuelles et sensorielles ainsi que les difficultés d'apprentissage. Afin de diminuer l’impact fonctionnel de ces séquelles, l’identification de marqueurs précoces devient un enjeu important. Dans le contexte actuel de ressources financières et humaines limitées, seuls les enfants nés avant 29 semaines de gestation ou avec un poids de naissance (PN) <1250g sont systématiquement suivis, laissant pour compte 95% des enfants prématurés. L’identification de marqueurs précoces permettrait de cibler les enfants nés après 28 semaines de gestation porteurs de séquelles. Le principal objectif des présents travaux visait à évaluer l’utilité de l’Évaluation neurologique d’Amiel-Tison (ENAT) dans l’identification et le suivi des enfants nés entre 29 et 37 semaines de gestation et qui présenteront des problèmes neurodéveloppementaux à l’âge corrigé (AC) de 24 mois. Plus précisément, la fidélité inter-examinateurs, la stabilité ainsi que la validité prédictive de l’ENAT ont été évaluées. La cohorte était composée initialement de 173 enfants nés entre 290/7 et 370/7 semaines de gestation, avec un PN<2500g et ayant passé au moins 24 heures à l’unité de soins néonatals du CHU Sainte-Justine. Les enfants étaient évalués avec l’ENAT à terme et aux AC de 4, 8, 12 et 24 mois. À l’AC de 24 mois, leur développement était évalué à l’aide du Bayley Scales of Infant Development–II. Les principaux résultats révèlent une excellente fidélité inter-examinateurs ainsi qu’une bonne stabilité au cours des deux premières années de vie du statut et des signes neurologiques. Des différences significatives à l’AC de deux ans ont été relevées aux performances développementales en fonction du statut neurologique à terme, qui constitue l’un des meilleurs facteurs prédictifs de ces performances. Les résultats encouragent l’intégration du statut neurologique tel que mesuré par l’ENAT comme marqueur précoce dans le cours d’une surveillance neurodéveloppementale des enfants les plus à risque.
Resumo:
Un document accompagne le mémoire et est disponible pour consultation au Centre de conservation des bibliothèques de l'Université de Montréal (http://www.bib.umontreal.ca/conservation/).
Resumo:
L’objectif principal de ce mémoire consiste à déterminer s’il existe une association entre la détresse psychologique et les problèmes cardiovasculaires chez les travailleurs, suite à l’influence de certains facteurs professionnels. Les données proviennent de l’Enquête sur la santé dans les communautés canadiennes (cycle 3.1 de l’ESCC), menée par Statistique Canada en 2005. Notre échantillon est composé de 15 394 canadiens et canadiennes en emploi de 15 ans et plus, représentatif sur le plan de l’âge, du genre et de la distribution géographique du lieu de résidence. Les analyses de régressions logistiques montrent que quatre facteurs professionnels présentent une association significative avec la détresse psychologique : les demandes psychologiques, la menace de perdre son emploi, le soutien social au travail, la satisfaction au travail. Puis, trois facteurs s’avèrent être reliés au développement de problèmes cardiovasculaires, soit l’utilisation des compétences, la satisfaction au travail ainsi que le nombre d’heures travaillées. Les analyses de variances multiples (MANOVA) révèlent que la détresse psychologique est associée aux problèmes cardiovasculaires et que ces deux problèmes de santé peuvent se retrouver en situation de comorbidité. Selon les résultats, on observe que cinq facteurs sont significativement corrélés à la présence de détresse psychologique en même qu’un problème cardiovasculaire : les demandes psychologiques, la menace de perdre son emploi, le soutien social au travail, la satisfaction au travail ainsi que le nombre d’heures travaillées. Par ailleurs, l’utilisation des compétences, l’autonomie décisionnelle et les exigences physiques de travail ne sont pas significativement associés à la détresse psychologique et à la présence de problèmes cardiovasculaires.