519 resultados para Erreur d’estimation
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cette thèse porte sur l’effet du risque de prix sur la décision des agriculteurs et les transformateurs québécois. Elle se divise en trois chapitres. Le premier chapitre revient sur la littérature. Le deuxième chapitre examine l’effet du risque de prix sur la production de trois produits, à savoir le maïs grain, la viande de porc et la viande d’agneau dans la province Québec. Le dernier chapitre est centré sur l’analyse de changement des préférences du transformateur québécois de porc pour ce qui est du choix de marché. Le premier chapitre vise à montrer l’importance de l’effet du risque du prix sur la quantité produite par les agriculteurs, tel que mis en évidence par la littérature. En effet, la littérature révèle l’importance du risque de prix à l’exportation sur le commerce international. Le deuxième chapitre est consacré à l’étude des facteurs du risque (les anticipations des prix et la volatilité des prix) dans la fonction de l’offre. Un modèle d’hétéroscédasticité conditionnelle autorégressive généralisée (GARCH) est utilisé afin de modéliser ces facteurs du risque. Les paramètres du modèle sont estimés par la méthode de l’Information Complète Maximum Vraisemblance (FIML). Les résultats empiriques montrent l’effet négatif de la volatilité du prix sur la production alors que la prévisibilité des prix a un effet positif sur la quantité produite. Comme attendu, nous constatons que l’application du programme d’assurance-stabilisation des revenus agricoles (ASRA) au Québec induit une plus importante sensibilité de l’offre par rapport au prix effectif (le prix incluant la compensation de l’ASRA) que par rapport au prix du marché. Par ailleurs, l’offre est moins sensible au prix des intrants qu’au prix de l’output. La diminution de l’aversion au risque de producteur est une autre conséquence de l’application de ce programme. En outre, l’estimation de la prime marginale relative au risque révèle que le producteur du maïs est le producteur le moins averse au risque (comparativement à celui de porc ou d’agneau). Le troisième chapitre consiste en l’analyse du changement de préférence du transformateur québécois du porc pour ce qui est du choix de marché. Nous supposons que le transformateur a la possibilité de fournir les produits sur deux marchés : étranger et local. Le modèle théorique explique l’offre relative comme étant une fonction à la fois d’anticipation relative et de volatilité relative des prix. Ainsi, ce modèle révèle que la sensibilité de l’offre relative par rapport à la volatilité relative de prix dépend de deux facteurs : d’une part, la part de l’exportation dans la production totale et d’autre part, l’élasticité de substitution entre les deux marchés. Un modèle à correction d’erreurs est utilisé lors d’estimation des paramètres du modèle. Les résultats montrent l’effet positif et significatif de l’anticipation relative du prix sur l’offre relative à court terme. Ces résultats montrent donc qu’une hausse de la volatilité du prix sur le marché étranger par rapport à celle sur le marché local entraine une baisse de l’offre relative sur le marché étranger à long terme. De plus, selon les résultats, les marchés étranger et local sont plus substituables à long terme qu’à court terme.
Resumo:
L’estimation temporelle de l’ordre des secondes à quelques minutes requiert des ressources attentionnelles pour l’accumulation d’information temporelle pendant l’intervalle à estimer (Brown, 2006; Buhusi & Meck, 2009; Zakay & Block, 2004). Ceci est démontré dans le paradigme de double tâche, où l’exécution d’une tâche concurrente pendant l’estimation d’un intervalle mène à un effet d’interférence, soit une distorsion de la durée perçue se traduisant par des productions temporelles plus longues et plus variables que si l’estimation de l’intervalle était effectuée seule (voir Brown, 1997; 2010). Un effet d’interférence est également observé lorsqu’une interruption est attendue pendant l’intervalle à estimer, l’allongement étant proportionnel à la durée d’attente de l’interruption (Fortin & Massé, 2000). Cet effet a mené à l’hypothèse que la production avec interruption serait sous-tendue par un mécanisme de partage attentionnel similaire à la double tâche (Fortin, 2003). Afin d’étudier cette hypothèse, deux études empiriques ont été effectuées dans des contextes expérimentaux associés respectivement à une augmentation et à une diminution de l’effet d’interférence, soit le vieillissement (Chapitre II) et l’entraînement cognitif (Chapitre III). Dans le Chapitre II, la tâche de production avec interruption est étudiée chez des participants jeunes et âgés à l’aide de la spectroscopie proche infrarouge fonctionnelle (SPIRf). Les résultats montrent que l’attente de l’interruption est associée à des coûts comportementaux et fonctionnels similaires à la double tâche. Au niveau comportemental, un allongement des productions proportionnel à la durée d’attente de l’interruption est observé chez l’ensemble des participants, mais cet effet est plus prononcé chez les participants âgés que chez les jeunes. Ce résultat est compatible avec les observations réalisées dans le paradigme de double tâche (voir Verhaegen, 2011 pour une revue). Au niveau fonctionnel, la production avec et sans interruption est associée à l’activation du cortex préfrontal droit et des régions préfrontales dorsolatérales connues pour leur rôle au niveau de l’estimation temporelle explicite (production d’intervalle) et implicite (processus préparatoires). En outre, l’attente de l’interruption est associée à l’augmentation de l’activation corticale préfrontale dans les deux hémisphères chez l’ensemble des participants, incluant le cortex ventrolatéral préfrontal associé au contrôle attentionnel dans la double tâche. Finalement, les résultats montrent que les participants âgés se caractérisent par une activation corticale bilatérale lors de la production sans et avec interruption. Dans le cadre des théories du vieillissement cognitif (Park & Reuter-Lorenz, 2009), cela suggère que l’âge est associé à un recrutement inefficace des ressources attentionnelles pour la production d’intervalle, ceci nuisant au recrutement de ressources additionnelles pour faire face aux demandes liées à l’attente de l’interruption. Dans le Chapitre III, la tâche de production avec interruption est étudiée en comparant la performance de participants assignés à l’une ou l’autre de deux conditions d’exécution extensive (cinq sessions successives) de double tâche ou de production avec interruption. Des sessions pré et post-test sont aussi effectuées afin de tester le transfert entre les conditions. Les résultats montrent un effet d’interférence et de durée d’interférence tant en production avec double tâche qu’en production avec interruption. Ces effets sont toutefois plus prononcés lors de la production avec interruption et tendent à augmenter au fil des sessions, ce qui n’est pas observé en double tâche. Cela peut être expliqué par l’influence des processus préparatoires pendant la période pré-interruption et pendant l’interruption. Finalement, les résultats ne mettent pas en évidence d’effets de transfert substantiels entre les conditions puisque les effets de la pratique concernent principalement la préparation temporelle, un processus spécifique à la production avec interruption. Par la convergence que permet l’utilisation d’un même paradigme avec des méthodologies distinctes, ces travaux approfondissent la connaissance des mécanismes attentionnels associés à l’estimation temporelle et plus spécifiquement à la production avec interruption. Les résultats supportent l’hypothèse d’un partage attentionnel induit par l’attente de l’interruption. Les ressources seraient partagées entre les processus d’estimation temporelle explicite et implicite, une distinction importante récemment mise de l’avant dans la recherche sur l’estimation du temps (Coull, Davranche, Nazarian & Vidal, 2013). L’implication de processus dépendant des ressources attentionnelles communes pour le traitement de l’information temporelle peut rendre compte de l’effet d’interférence robuste et systématique observé dans la tâche de production avec interruption.
Resumo:
Les préhenseurs robotiques sont largement utilisés en industrie et leur déploiement pourrait être encore plus important si ces derniers étaient plus intelligents. En leur conférant des capacités tactiles et une intelligence leur permettant d’estimer la pose d’un objet saisi, une plus vaste gamme de tâches pourraient être accomplies par les robots. Ce mémoire présente le développement d’algorithmes d’estimation de la pose d’objets saisis par un préhenseur robotique. Des algorithmes ont été développés pour trois systèmes robotisés différents, mais pour les mêmes considérations. Effectivement, pour les trois systèmes la pose est estimée uniquement à partir d’une saisie d’objet, de données tactiles et de la configuration du préhenseur. Pour chaque système, la performance atteignable pour le système minimaliste étudié est évaluée. Dans ce mémoire, les concepts généraux sur l’estimation de la pose sont d’abord exposés. Ensuite, un préhenseur plan à deux doigts comprenant deux phalanges chacun est modélisé dans un environnement de simulation et un algorithme permettant d’estimer la pose d’un objet saisi par le préhenseur est décrit. Cet algorithme est basé sur les arbres d’interprétation et l’algorithme de RANSAC. Par la suite, un système expérimental plan comprenant une phalange supplémentaire par doigt est modélisé et étudié pour le développement d’un algorithme approprié d’estimation de la pose. Les principes de ce dernier sont similaires au premier algorithme, mais les capteurs compris dans le système sont moins précis et des adaptations et améliorations ont dû être appliquées. Entre autres, les mesures des capteurs ont été mieux exploitées. Finalement, un système expérimental spatial composé de trois doigts comprenant trois phalanges chacun est étudié. Suite à la modélisation, l’algorithme développé pour ce système complexe est présenté. Des hypothèses partiellement aléatoires sont générées, complétées, puis évaluées. L’étape d’évaluation fait notamment appel à l’algorithme de Levenberg-Marquardt.
Resumo:
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.
Resumo:
Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.
Resumo:
L’objectif principal de ce mémoire était de déterminer les apports optimaux en phosphore (P) en termes de performance de croissance, de minéralisation osseuse, d’excrétion de P et de fréquence d’ostéochondrose chez le porc (25 à 120 kg). L’expérience s’est échelonnée sur trois phases de 28 jours chacune où les porcs ont été alimentés avec des nourrisseurs automatiques. Deux aliments, soit un riche en nutriments (A) qui satisfait les besoins d’un porc de 25 kg en plus d’apporter 140 % des besoins en P digestible et en calcium (Ca) et un autre pauvre en nutriments (B) satisfaisant les besoins d’un porc de 120 kg en plus d’apporter 60 % des besoins en P digestible et en Ca ont été utilisés pour fabriquer 5 des traitements alimentaires, et le 6e traitement constituait le témoin positif. Pendant la première phase, 80 porcs ont reçu un des 5 traitements alimentaires, soit 60, 80, 100, 120 et 140 % des besoins en P avec un rapport Ca :P fixe. De faibles différences au niveau des performances de croissance ont été observées entre les traitements. La minéralisation osseuse a pour sa part augmenté linéairement avec l’augmentation des apports phosphocalciques. Aux phases 2 et 3, une erreur expérimentale s’est glissée dans la composition des aliments A et B, faisant en sorte que les quantités de Ca de chacun des deux aliments ont été inversées, soit des apports de P toujours de 60, 80, 100, 120 et 140 % des besoins, mais conjointement avec des apports de Ca de 140, 115, 100, 85 et 70 % des besoins respectivement. Ainsi, l’objectif de l’essai a été revu en tenant compte de cette erreur pour étudier l’effet de déséquilibres phosphocalciques sur les mêmes critères que ceux de la phase 1. Les résultats montrent l’importance de maintenir un équilibre entre les apports de P et de Ca afin de favoriser l’utilisation de chacun des deux éléments.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
Le présent mémoire expose les résultats d’une étude de la performance des chantiers ouverts dans un contexte de mines profondes ayant été effectuée dans le cadre du projet de recherche « Mines profondes : défis d’exploitation et impacts sur la récupération minéralurgique » réalisé par le département de génie des mines, de la métallurgie et des matériaux de l’Université Laval. Les données utilisées dans le cadre de cette étude sont en lien avec la planification et l’exploitation de plus de mille chantiers minés entre 860 et 2 450 m de profondeur à la mine souterraine LaRonde de Mines Agnico Eagle, la plus profonde actuellement de l’hémisphère ouest. On y présente une revue de la littérature qui fait la description des problématiques de dilution et de pertes opérationnelles de la réserve minérale liées à la performance des chantiers ouverts ainsi que de leurs conséquences sur les projets miniers. Une comparaison des performances planifiées et réalisées au site de LaRonde y est présentée, ainsi que les résultats d’analyses statistiques ayant permis de montrer que la variation du ratio des contraintes in situ avec la profondeur est un facteur d’influence significatif de la performance des chantiers. L’effet de ce facteur d’influence y est aussi illustré et validé à l’aide d’une série de modèles numériques. Le mémoire présente également une première approche visant à développer un modèle d’évaluation de la dilution dans les chantiers ouverts qui prend en compte la profondeur de minage. Finalement, afin d’améliorer la précision de l’estimation de la réserve minérale lors de l’évaluation de projets miniers, une méthodologie d’estimation intégrant le modèle d’évaluation proposé est présentée pour les projets dont les contextes géologique, géotechnique et opérationnel sont comparables à ceux du site de LaRonde.
Resumo:
Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.
Resumo:
Les propriétés hydrauliques d’un till du Nord du Québec en condition saturée et non saturée ont été étudiées en laboratoire à l’aide de l’essai de conductivité hydraulique et l’essai de succion qui permet d’obtenir la courbe de rétention d’eau. Les essais ont été réalisés avec des échantillons compactés sous différentes conditions de teneur en eau et de masse volumique sèche, de manière à évaluer l’influence de ces conditions sur les propriétés hydrauliques. Les études précédentes ont montré qu’une structure agrégée se développe dans le till lorsqu’il est compacté de côté sec de l’optimum Proctor, c’est-à-dire à un degré de saturation de compactage inférieur au degré de saturation optimum (Sr0 < Sr-opt). Le till étudié dans le cadre de cette étude diffère de ceux utilisés dans les études précédentes par son très faible pourcentage de particules argileuses (< 2 μm) de 0,7%. L’objectif principal de cette étude est d’évaluer l’influence des conditions de compactage sur la conductivité hydraulique et la courbe de rétention d’eau et de déterminer si une structure agrégée se développe lorsque le till est compacté du côté sec de l’optimum. Les résultats expérimentaux typiques de la conductivité hydraulique saturée obtenus pour les échantillons compactés du côté humide de l’optimum (Sr0 > Sr-opt) avec un indice des vides de 0,328 varient de 2,6 x 10-7 à 8,6 x 10-7 m/s. Les conductivités hydrauliques typiques obtenues pour les échantillons compactés du côté sec de l’optimum (Sr0 < Sr-opt) avec le même indice des vides étaient très similaires, variant entre 2,4 x 10-7 et 9,1 x 10-7 m/s. Les courbes de rétention d’eau mesurées en laboratoire sont très semblables entre elles, présentant toutes une structure de sol homogène, peu importe si l’échantillon a été compacté du côté sec ou du côté humide. Il apparait que la conductivité hydraulique et la courbe de rétention d’eau de ce till sont très peu influencées par le degré de saturation de compactage. Ceci peut être expliqué par le très faible pourcentage de particules argileuses, qui prévient la formation d’agrégations de particules dans la structure du till lorsqu’il est compacté du côté sec de l’optimum Proctor. Plusieurs modèles d’estimation de la conductivité hydraulique sont utilisés. Cette étude propose trois nouveaux modèles d’estimation de la conductivité hydraulique saturée pour les tills du Nord du Québec. Le premier modèle met en relation la conductivité hydraulique saturée avec le diamètre des grains de la fraction fine (d50 FF) et le deuxième modèle est une équation modifiée de Kozeny-Carman et Hazen basée sur la porosité et une taille de particule effective (d10). Finalement, un modèle permettant d’évaluer l’effet de l’agrégation avec l’équation de Kozeny-Carman modifiée dans les tills compactés est proposé.
Resumo:
Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.
Resumo:
Ce mémoire présente l’étude expérimentale de l’écoulement d’entrée d’un aspirateur d’une turbine bulbe présentant une chute abrupte de performance. Des mesures par vélocimétrie laser à effet Doppler (LDV) ont été réalisées sur deux axes soit en aval des pales de la roue et en aval du moyeu de la roue. Une particularité de cette étude est la conception d’un montage permettant de mesurer la vitesse axiale proche de la paroi du cône. De plus, une méthode d’estimation de la vitesse radiale moyenne a été développée. Ces mesures ont permis de caractériser l’écoulement primaire et les écoulements secondaires et d’analyser leur évolution entre les deux axes. De plus, l’évolution de ces écoulements est analysée en fonction de la chute de performance de la turbine. Les principales particularités de l’écoulement sont la présence d’une recirculation sous le moyeu, d’une zone contrarotative, des sillages des directrices et des tourbillons de bout de pale.