206 resultados para erreur


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maître ès science (M. Sc.) en criminologie Option stage en analyse criminologique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de ce mémoire était de déterminer les apports optimaux en phosphore (P) en termes de performance de croissance, de minéralisation osseuse, d’excrétion de P et de fréquence d’ostéochondrose chez le porc (25 à 120 kg). L’expérience s’est échelonnée sur trois phases de 28 jours chacune où les porcs ont été alimentés avec des nourrisseurs automatiques. Deux aliments, soit un riche en nutriments (A) qui satisfait les besoins d’un porc de 25 kg en plus d’apporter 140 % des besoins en P digestible et en calcium (Ca) et un autre pauvre en nutriments (B) satisfaisant les besoins d’un porc de 120 kg en plus d’apporter 60 % des besoins en P digestible et en Ca ont été utilisés pour fabriquer 5 des traitements alimentaires, et le 6e traitement constituait le témoin positif. Pendant la première phase, 80 porcs ont reçu un des 5 traitements alimentaires, soit 60, 80, 100, 120 et 140 % des besoins en P avec un rapport Ca :P fixe. De faibles différences au niveau des performances de croissance ont été observées entre les traitements. La minéralisation osseuse a pour sa part augmenté linéairement avec l’augmentation des apports phosphocalciques. Aux phases 2 et 3, une erreur expérimentale s’est glissée dans la composition des aliments A et B, faisant en sorte que les quantités de Ca de chacun des deux aliments ont été inversées, soit des apports de P toujours de 60, 80, 100, 120 et 140 % des besoins, mais conjointement avec des apports de Ca de 140, 115, 100, 85 et 70 % des besoins respectivement. Ainsi, l’objectif de l’essai a été revu en tenant compte de cette erreur pour étudier l’effet de déséquilibres phosphocalciques sur les mêmes critères que ceux de la phase 1. Les résultats montrent l’importance de maintenir un équilibre entre les apports de P et de Ca afin de favoriser l’utilisation de chacun des deux éléments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les translocations chromosomiques du gène MLL sont connues pour mener au développement de leucémies aiguës. La translocation avec un de ses partenaires de fusion les plus communs, ENL, peut engendrer des leucémies aiguës de plusieurs types différents pour cette même translocation. Une fois la leucémogenèse initiée par la fusion MLL-ENL, son rôle quant au maintien du phénotype leucémique n’est pas encore bien connu à ce jour. Pour mieux comprendre l’importance de MLL-ENL après la leucémogenèse, des cellules souches/progénitrices de sang de cordon ombilical humain purifiées ont ainsi été transduites par un virus exprimant le gène de fusion MLL-ENL bordé par des sites LoxP ainsi que le marqueur eGFP. Ces cellules infectées ont ensuite été injectées dans notre modèle de souris immunodéficientes irradiées et placées sous observation pendant 24 semaines pour voir le développement de leucémies aiguës. Elles ont alors été sacrifiées et les cellules la moelle osseuse et de la rate ont ensuite été analysées par cytométrie en flux pour déterminer si la xénogreffe a engendré une leucémie dans notre modèle ainsi que le phénotype de celle-ci. Les souris injectées par les cellules infectées par le MLL-ENL ont généré uniquement des leucémies lymphoïdes aiguës de type B. Les cellules de ces leucémies primaires isolées ont été par la suite infectées par un lentivirus exprimant la cre-recombinase et le marqueur BFP afin d’exciser le gène MLL-ENL des cellules leucémiques grâce aux sites LoxP. Les cellules ont ensuite été triées pour le marqueur BFP et injectées dans des souris secondaires pour de voir si les cellules leucémiques souches pouvaient toujours régénérer la leucémie. Les conséquences de l’absence de MLL-ENL dans le maintien du phénotype leucémique n’ont cependant pas pu être vérifiées à cause d’une erreur dans la séquence de la cre-recombinase, mais nous avons observé la régénération des leucémies secondaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a présentement de la demande dans plusieurs milieux cherchant à utiliser des robots afin d'accomplir des tâches complexes, par exemple l'industrie de la construction désire des travailleurs pouvant travailler 24/7 ou encore effectuer des operation de sauvetage dans des zones compromises et dangereuses pour l'humain. Dans ces situations, il devient très important de pouvoir transporter des charges dans des environnements encombrés. Bien que ces dernières années il y a eu quelques études destinées à la navigation de robots dans ce type d'environnements, seulement quelques-unes d'entre elles ont abordé le problème de robots pouvant naviguer en déplaçant un objet volumineux ou lourd. Ceci est particulièrement utile pour transporter des charges ayant de poids et de formes variables, sans avoir à modifier physiquement le robot. Un robot humanoïde est une des plateformes disponibles afin d'effectuer efficacement ce type de transport. Celui-ci a, entre autres, l'avantage d'avoir des bras et ils peuvent donc les utiliser afin de manipuler précisément les objets à transporter. Dans ce mémoire de maîtrise, deux différentes techniques sont présentées. Dans la première partie, nous présentons un système inspiré par l'utilisation répandue de chariots de fortune par les humains. Celle-ci répond au problème d'un robot humanoïde naviguant dans un environnement encombré tout en déplaçant une charge lourde qui se trouve sur un chariot de fortune. Nous présentons un système de navigation complet, de la construction incrémentale d'une carte de l'environnement et du calcul des trajectoires sans collision à la commande pour exécuter ces trajectoires. Les principaux points présentés sont : 1) le contrôle de tout le corps permettant au robot humanoïde d'utiliser ses mains et ses bras pour contrôler les mouvements du système à chariot (par exemple, lors de virages serrés) ; 2) une approche sans capteur pour automatiquement sélectionner le jeu approprié de primitives en fonction du poids de la charge ; 3) un algorithme de planification de mouvement qui génère une trajectoire sans collisions en utilisant le jeu de primitive approprié et la carte construite de l'environnement ; 4) une technique de filtrage efficace permettant d'ignorer le chariot et le poids situés dans le champ de vue du robot tout en améliorant les performances générales des algorithmes de SLAM (Simultaneous Localization and Mapping) défini ; et 5) un processus continu et cohérent d'odométrie formés en fusionnant les informations visuelles et celles de l'odométrie du robot. Finalement, nous présentons des expériences menées sur un robot Nao, équipé d'un capteur RGB-D monté sur sa tête, poussant un chariot avec différentes masses. Nos expériences montrent que la charge utile peut être significativement augmentée sans changer physiquement le robot, et donc qu'il est possible d'augmenter la capacité du robot humanoïde dans des situations réelles. Dans la seconde partie, nous abordons le problème de faire naviguer deux robots humanoïdes dans un environnement encombré tout en transportant un très grand objet qui ne peut tout simplement pas être déplacé par un seul robot. Dans cette partie, plusieurs algorithmes et concepts présentés dans la partie précédente sont réutilisés et modifiés afin de convenir à un système comportant deux robot humanoides. Entre autres, nous avons un algorithme de planification de mouvement multi-robots utilisant un espace d'états à faible dimension afin de trouver une trajectoire sans obstacle en utilisant la carte construite de l'environnement, ainsi qu'un contrôle en temps réel efficace de tout le corps pour contrôler les mouvements du système robot-objet-robot en boucle fermée. Aussi, plusieurs systèmes ont été ajoutés, tels que la synchronisation utilisant le décalage relatif des robots, la projection des robots sur la base de leur position des mains ainsi que l'erreur de rétroaction visuelle calculée à partir de la caméra frontale du robot. Encore une fois, nous présentons des expériences faites sur des robots Nao équipés de capteurs RGB-D montés sur leurs têtes, se déplaçant avec un objet tout en contournant d'obstacles. Nos expériences montrent qu'un objet de taille non négligeable peut être transporté sans changer physiquement le robot.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo que se pretende con este trabajo es probar el método de Swartman y Ogunlade (1966), en las aéreas geográficas de Limón, Buenos Aires, Fabio Baudrit (Alajuela), Nicoya y Puntarenas, donde existen datos de brillo solar, humedad relativa y radiación solar global diaria media mensual. Se prueba la validez de este método para estas estaciones en estudio, con un valor aceptable de ± 10% de error en la mayoría de los casos. En ausencia de aparatos que miden directamente la radiación solar global, se recomienda utilizar este método, pues únicamente requiere datos de humedad relativa y brillo solar, que se miden directamente en casi todas las estaciones meteorológicas del país.   SUMMARY This article attempts to verify the method used by Swartman and Ogunlade (1966) in the areas of Limón, Buenos Aires, Fabio Baudrit (Alajuela), Nicoya and Puntarenas, where data exist concerning solar brilliance, relative humidity and daily global solar radiation based on monthly averages. The validity of this method is proved in reference to the above mentioned study sites, with an acceptable error factor of ± 10% in the majority of the cases. The usage of this method is recommended in the absence of apparatus that measure directly the global solar radiation, because you only need data concerning relative humidity and solar brilliance; data that is directly collected in all of the meteorogical stations located in Costa Rica.   RESUME Le but de ce travail est la probation de la méthode de Swartman et Ogunlade (1966), en l’appliquant dans des aires géographiques tant diverses comme Limón, Buenos Aires, Fabio Baudrit (Alajuela), Nicoya et Puntarenas ; c'est-à-dire là où existe des mesures de la durée de l’ensoleillement, de l’humidité relative et de la moyenne mensuelle de la radiation solaire globale quotidienne. Le test de cette méthode, para ces stations donne une erreur relative de 10% dans la plupart de cas. Quand on manque d’appareils pour la mesure de la radiation solaire globale, on recommande l’usage de cette méthode, puisqu’elle se base Our les registres d’humidité relative et d’heures d’ensoleillement mesurées que toutes les stations météoritiques du pays.