571 resultados para Modélisation d’actions
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
La gestion intégrée de la ressource en eau implique de distinguer les parcours de l’eau qui sont accessibles aux sociétés de ceux qui ne le sont pas. Les cheminements de l’eau sont nombreux et fortement variables d’un lieu à l’autre. Il est possible de simplifier cette question en s’attardant plutôt aux deux destinations de l’eau. L’eau bleue forme les réserves et les flux dans l’hydrosystème : cours d’eau, nappes et écoulements souterrains. L’eau verte est le flux invisible de vapeur d’eau qui rejoint l’atmosphère. Elle inclut l’eau consommée par les plantes et l’eau dans les sols. Or, un grand nombre d’études ne portent que sur un seul type d’eau bleue, en ne s’intéressant généralement qu’au devenir des débits ou, plus rarement, à la recharge des nappes. Le portrait global est alors manquant. Dans un même temps, les changements climatiques viennent impacter ce cheminement de l’eau en faisant varier de manière distincte les différents composants de cycle hydrologique. L’étude réalisée ici utilise l’outil de modélisation SWAT afin de réaliser le suivi de toutes les composantes du cycle hydrologique et de quantifier l’impact des changements climatiques sur l’hydrosystème du bassin versant de la Garonne. Une première partie du travail a permis d’affiner la mise en place du modèle pour répondre au mieux à la problématique posée. Un soin particulier a été apporté à l’utilisation de données météorologiques sur grille (SAFRAN) ainsi qu’à la prise en compte de la neige sur les reliefs. Le calage des paramètres du modèle a été testé dans un contexte differential split sampling, en calant puis validant sur des années contrastées en terme climatique afin d’appréhender la robustesse de la simulation dans un contexte de changements climatiques. Cette étape a permis une amélioration substantielle des performances sur la période de calage (2000-2010) ainsi que la mise en évidence de la stabilité du modèle face aux changements climatiques. Par suite, des simulations sur une période d’un siècle (1960-2050) ont été produites puis analysées en deux phases : i) La période passée (1960-2000), basée sur les observations climatiques, a servi de période de validation à long terme du modèle sur la simulation des débits, avec de très bonnes performances. L’analyse des différents composants hydrologiques met en évidence un impact fort sur les flux et stocks d’eau verte, avec une diminution de la teneur en eau des sols et une augmentation importante de l’évapotranspiration. Les composantes de l’eau bleue sont principalement perturbées au niveau du stock de neige et des débits qui présentent tous les deux une baisse substantielle. ii) Des projections hydrologiques ont été réalisées (2010-2050) en sélectionnant une gamme de scénarios et de modèles climatiques issus d’une mise à l’échelle dynamique. L’analyse de simulation vient en bonne part confirmer les conclusions tirées de la période passée : un impact important sur l’eau verte, avec toujours une baisse de la teneur en eau des sols et une augmentation de l’évapotranspiration potentielle. Les simulations montrent que la teneur en eau des sols pendant la période estivale est telle qu’elle en vient à réduire les flux d’évapotranspiration réelle, mettant en évidence le possible déficit futur des stocks d’eau verte. En outre, si l’analyse des composantes de l’eau bleue montre toujours une diminution significative du stock de neige, les débits semblent cette fois en hausse pendant l’automne et l’hiver. Ces résultats sont un signe de l’«accélération» des composantes d’eau bleue de surface, probablement en relation avec l’augmentation des évènements extrêmes de précipitation. Ce travail a permis de réaliser une analyse des variations de la plupart des composantes du cycle hydrologique à l’échelle d’un bassin versant, confirmant l’importance de prendre en compte toutes ces composantes pour évaluer l’impact des changements climatiques et plus largement des changements environnementaux sur la ressource en eau.
Resumo:
La Maison de l’Inde et le comptoir de Flandre sont à l’origine de règles spécifiques dont on ne trouve pas d’équivalent dans les traités d’arithmétique des autres pays. La règle d’un quart et un vingtième correspond à un prélèvement d’un quart plus un vingtième des trois quarts restants, c'est-à-dire 1/4+1/20×3/4=23/80 de la quantité initiale. La règle des comptes de Flandre correspond à une formule de conversion. Dans cette session, nous proposons une introduction à ces règles spécifiques du commerce des épices au Portugal à l'époque de la Renaissance, en tenant compte de l'interaction entre les Mathématiques, l'Histoire et l'introduction de la mentalité quantitative pour la modélisation du réel.
Resumo:
D’abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d’ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d’opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s’appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d’atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d’onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d’utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.
Resumo:
Ce travail présente une modélisation rapide d’ordre élévé capable de modéliser une configuration rotorique en cage complète ou en grille, de reproduire les courants de barre et tenir compte des harmoniques d’espace. Le modèle utilise une approche combinée d’éléments finis avec les circuits-couplés. En effet, le calcul des inductances est réalisé avec les éléments finis, ce qui confère une précision avancée au modèle. Cette méthode offre un gain important en temps de calcul sur les éléments finis pour des simulations transitoires. Deux outils de simulation sont développés, un dans le domaine du temps pour des résolutions dynamiques et un autre dans le domaine des phaseurs dont une application sur des tests de réponse en fréquence à l’arrêt (SSFR) est également présentée. La méthode de construction du modèle est décrite en détail de même que la procédure de modélisation de la cage du rotor. Le modèle est validé par l’étude de machines synchrones: une machine de laboratoire de 5.4 KVA et un grand alternateur de 109 MVA dont les mesures expérimentales sont comparées aux résultats de simulation du modèle pour des essais tels que des tests à vide, des courts-circuits triphasés, biphasés et un test en charge.
Resumo:
Les déficits cognitifs sont présents chez les patients atteints de cancer. Les tests cognitifs tels que le Montreal Cognitive Assessment se sont révélés peu spécifiques, incapables de détecter des déficits légers et ne sont pas linéaires. Pour suppléer à ces limitations nous avons développé un questionnaire cognitif simple, bref et adapté aux dimensions cognitives atteintes chez les patients avec un cancer, le FaCE « The Fast Cognitif Evaluation », en utilisant la modélisation Rasch (MR). La MR est une méthode mathématique probabiliste qui détermine les conditions pour qu’un outil soit considéré une échelle de mesure et elle est indépendante de l’échantillon. Si les résultats s’ajustent au modèle, l’échelle de mesure est linéaire avec des intervalles égaux. Les réponses sont basées sur la capacité des sujets et la difficulté des items. La carte des items permet de sélectionner les items les plus adaptés pour l’évaluation de chaque aspect cognitif et d’en réduire le nombre au minimum. L’analyse de l’unidimensionnalité évalue si l’outil mesure une autre dimension que celle attendue. Les résultats d’analyses, conduites sur 165 patients, montrent que le FaCE distingue avec une excellente fiabilité et des niveaux suffisamment différents les compétences des patients (person-reliability-index=0.86; person-separation-index=2.51). La taille de la population et le nombre d’items sont suffisants pour que les items aient une hiérarchisation fiable et précise (item-reliability=0.99; item-séparation-index=8.75). La carte des items montre une bonne dispersion de ceux-ci et une linéarité du score sans effet plafond. Enfin, l’unidimensionnalité est respectée et le temps d’accomplissement moyen est d’environ 6 minutes. Par définition la MR permet d’assurer la linéarité et la continuité de l’échelle de mesure. Nous avons réussi à développer un questionnaire bref, simple, rapide et adapté aux déficits cognitifs des patients avec un cancer. Le FaCE pourrait, aussi, servir de mesure de référence pour les futures recherches dans le domaine.
Resumo:
Depuis le milieu des années 2000, une nouvelle approche en apprentissage automatique, l'apprentissage de réseaux profonds (deep learning), gagne en popularité. En effet, cette approche a démontré son efficacité pour résoudre divers problèmes en améliorant les résultats obtenus par d'autres techniques qui étaient considérées alors comme étant l'état de l'art. C'est le cas pour le domaine de la reconnaissance d'objets ainsi que pour la reconnaissance de la parole. Sachant cela, l’utilisation des réseaux profonds dans le domaine du Traitement Automatique du Langage Naturel (TALN, Natural Language Processing) est donc une étape logique à suivre. Cette thèse explore différentes structures de réseaux de neurones dans le but de modéliser le texte écrit, se concentrant sur des modèles simples, puissants et rapides à entraîner.
Resumo:
Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).
Resumo:
La pollution diffuse provenant des milieux agricoles a une influence majeure sur la qualité de l’eau. Le transport de sédiments et de nutriments, tels que le phosphore et l’azote, est particulièrement préoccupant. Les changements climatiques anticipés modifieront le régime hydrologique des rivières, ce qui entraînera des conséquences difficiles à anticiper, notamment sur la qualité de l’eau. Le site à l’étude est le bassin versant de la rivière Tomifobia, situé au sud-ouest du Québec, qui possède une superficie de 436 km² et qui comporte une forte activité agricole. Il a un impact important sur la qualité de l’eau du lac Massawippi puisqu’il draine 70% de son bassin versant. Le modèle hydrologique spatialisé Soil and Water Assessment Tool (SWAT) a été utilisé pour effectuer l’évaluation quantitative et qualitative de l’apport en eau à la rivière. Les activités agricoles ont été représentées dans le modèle selon un calendrier typique pour chacune des différentes cultures. Le calage et la validation du modèle pour le débit de la rivière Tomifobia ont été effectués à l’aide de la reconstitution des apports au lac Massawippi. Pour la qualité de l’eau, les données provenant de l’Institut de recherche et de développement en agroenvironnement (IRDA), du Comité de gestion du bassin versant de la rivière Saint-François (COGESAF) et la campagne d’échantillonnage du Groupe de recherche sur l’eau de l’Université de Sherbrooke (GREAUS) ont été utilisées. Les éléments analysés par rapport à la qualité de l’eau sont les sédiments, le phosphore et les nitrates. Différentes projections climatiques ont été entrées dans le modèle dans le but de déterminer les tendances hydrologiques futures. L’impact des changements climatiques sur le régime hydrologique se traduit principalement par une augmentation des débits hivernaux et une diminution des débits printaniers. Aucune tendance statistiquement significative n’a été observée pour la période estivale et automnale. L’effet des changements climatiques sur les exportations de nitrates est similaire à celui sur le débit. Pour les exportations de sédiments et de phosphore, on note une hausse à l’hiver, une baisse au printemps et une hausse pour l’été et l’automne.
Resumo:
Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.