449 resultados para Qualité des données
Resumo:
L’ Initiative des Écoles Amies de la Nutrition (IEAN) est une initiative développée par l'Organisation Mondiale de la Santé (OMS) en 2006 pour contrer le Double Fardeau Nutritionnel (DFN). TRANSNUT est une équipe de professeurs de l’Université de Montréal et Centre collaborateur OMS sur la transition nutritionnelle et le développement. En 2009, il a participé à une étude de base au Burkina Faso, qui a recueilli des données anthropométriques et biologiques des élèves du cours moyen. Cinq ans plus tard, en 2014, de nouvelles données anthropométriques et biologiques ont été recueillies dans les mêmes écoles mais non chez les mêmes élèves. Le but de cette étude est d'analyser les données de 2014 et de comparer les résultats avec ceux de 2009, afin d'évaluer l'impact et l’efficacité de l'initiative. C’est une étude transversale menée dans 12 écoles à Ouagadougou, la capitale du Burkina Faso. Six écoles «intervention» et six écoles «témoin» ont été sélectionnées, en tenant compte de la nature des écoles (privées/publiques) et de leurs zones géographiques (urbaines/périurbaines). L'échantillon total comprenait 651 écoliers (54,7% de filles) âgés de 8 à 14 ans. Des mesures anthropométriques et de la concentration d'hémoglobine ont été effectuées sur tous les enfants, alors que le rétinol sérique a été mesuré dans un sous-échantillon aléatoire de 184 enfants. Le test de t et du Khi Carré ont été utilisés pour la comparaison des moyennes et des proportions. L'âge moyen des enfants était de 11,4 ± 1,1 ans. Les taux d'anémie et de déficience en vitamine A (DVA) étaient respectivement de 35,6% et 26,1%. La prévalence du retard de croissance était de 8,1% et celle de la maigreur, de 8,4%. Chez les filles, 2,8% étaient en surpoids contre 0,9% des garçons (p = 0,036). Moins d'élèves étaient maigres en 2014 (7,2%) par rapport à 2009 (13,7%), et ce résultat était significatif avec p < 0,001. En outre, les carences en micronutriments ont été moins présentes dans les écoles en 2014 par rapport à 2009 (p = 0,007 pour l'anémie, p = 0,044 pour la DVA). Nos résultats ont confirmé une grande amélioration du statut nutritionnel des enfants d’âge scolaire à Ouagadougou. Toutefois, il n’est pas possible présentement d’évaluer jusqu'à quelle mesure l’IEAN a été impliquée dans ces changements, ni d’attribuer ces améliorations à cette initiative uniquement. Les recherches futures doivent être axées sur des études longitudinales pour évaluer de manière plus précise la croissance des mêmes élèves qui font partie des écoles « amies de la nutrition ».
Resumo:
Présentation-éclair, Congrès des milieux documentaires du Québec 2015
Resumo:
Ce mémoire a pour but de déterminer des nouvelles méthodes de détection de rupture et/ou de tendance. Après une brève introduction théorique sur les splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature seront présentées. Puis, de nouvelles méthodes de détection de rupture qui utilisent les splines et la statistique bayésienne seront présentées. De plus, afin de bien comprendre d’où provient la méthode utilisant la statistique bayésienne, une introduction sur la théorie bayésienne sera présentée. À l’aide de simulations, nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours en utilisant des simulations, une analyse plus en profondeur de la nouvelle méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des données réelles. Une brève conclusion fera une récapitulation de ce mémoire.
Resumo:
L’étude des polymorphismes et des aspects multifactoriels des déterminants de la santé suscite un engouement majeur envers la recherche populationnelle en génétique et génomique. Cette méthode de recherche requiert cependant la collecte et l’analyse d’un nombre élevé d’échantillons biologiques et de données associées, ce qui stimule le développement des biobanques. Ces biobanques, composées des données personnelles et de santé de milliers de participants, constituent désormais une ressource essentielle permettant l’étude de l’étiologie des maladies complexes et multifactorielles, tout en augmentant la rapidité et la fiabilité des résultats de recherche. Afin d’optimiser l’utilisation de ces ressources, les chercheurs combinent maintenant les informations contenues dans différentes biobanques de manière à créer virtuellement des mégacohortes de sujets. Cependant, tout partage de données à des fins de recherche internationale est dépendant de la possibilité, à la fois légale et éthique, d’utiliser ces données aux fins pressenties. Le droit d’utiliser les données personnelles, médicales et génétiques de participants dans le cadre de recherches internationales est soumis à un ensemble complexe et exhaustif d’exigences légales et éthiques. Cette complexité est exacerbée lorsque les participants sont décédés. Fondée sur une révision de l’interprétation individualiste du concept de consentement éclairé, ainsi qu’une perspective constructiviste des concepts de confiance et d’autonomie, cette thèse se situe au carrefour de la recherche, du droit et de l’éthique, et a pour objectif de proposer un modèle promouvant l’harmonisation éthique et juridique des données aux fins de recherches internationales en génétique.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cet essai est présenté en tant que mémoire de maîtrise dans le cadre du programme de droit des technologies de l’information. Ce mémoire traite de différents modèles d’affaires qui ont pour caractéristique commune de commercialiser les données dans le contexte des technologies de l’information. Les pratiques commerciales observées sont peu connues et l’un des objectifs est d’informer le lecteur quant au fonctionnement de ces pratiques. Dans le but de bien situer les enjeux, cet essai discutera d’abord des concepts théoriques de vie privée et de protection des renseignements personnels. Une fois ce survol tracé, les pratiques de « data brokerage », de « cloud computing » et des solutions « analytics » seront décortiquées. Au cours de cette description, les enjeux juridiques soulevés par chaque aspect de la pratique en question seront étudiés. Enfin, le dernier chapitre de cet essai sera réservé à deux enjeux, soit le rôle du consentement et la sécurité des données, qui ne relèvent pas d’une pratique commerciale spécifique, mais qui sont avant tout des conséquences directes de l’évolution des technologies de l’information.
Resumo:
Introduction : La fécondation in vitro est de mieux en mieux connue et en amélioration constante, cependant les taux d’implantation et de grossesse sont encore bas (environ 35% par fécondation in vitro). Un des enjeux de l’amélioration de la fécondation in vitro est le développement embryonnaire et l’implantation. Pour cela, la co-culture des embryons sur un tapis de cellules endométriales maternelles autologues peut être utilisée pour améliorer le développement embryonnaire (taux d’embryon se développant jusqu’à J5 : blastocyste) et l’implantation. L’objectif de l’étude est d’étudier le lien entre la qualité du tapis cellulaire et le développement embryonnaire. Matériel et méthodes : Cette étude est une sous analyse de l’essai clinique randomisé en double aveugle OvoGen, comparant le taux de blastulation et de grossesse dans deux groupes randomisés : le groupe étude, dans lequel les embryons se développent sur un tapis cellulaire endométrial maternel et le groupe contrôle, dans lequel les embryons sont cultivés dans du milieu conventionnel. Nous avons analysé la qualité des tapis cellulaire du groupe étude (confluence des cellules, taux de cellules épithéliales et vitalité des cellules stromales) par rapport au développement embryonnaire et au taux de grossesse. Résultats : 50 tapis de cellules endométriales maternelles et 291 embryons sur les puits ont été analysés de 2012 à 2015 à la clinique ovo (Montréal, Québec). La qualité des embryons n’était pas changée par la qualité des tapis (p=0,65 pour la confluence, p=0,25 pour le taux de glande et p=0,92 pour la viabilité des cellules). En revanche, le taux de grossesse augmentait quand la confluence diminuait (p=0,022) et lorsque la viabilité des cellules stromales augmentait (p=0,001). De plus, la qualité des tapis était dépendante de la date de la biopsie : la biopsie faite à J7 après l’ovulation permettait une meilleure qualité de puits (confluence augmentée, p=0,045, taux de glande augmenté p=0,004 et viabilité stromales augmentée p=0,001) que la biopsie faite à J5 post ovulation. Discussion : Aucune des nombreuses études sur la co-culture ne porte sur la qualité des tapis cellulaire. Il est intéressant de noter que le taux de grossesse augmente avec la diminution de la confluence et l’augmentation de la viabilité des cellules stromales dans les puits contenant les embryons transférés. Comme il a déjà été démontré, (1)le jour de la biopsie endométriale influe sur la qualité du tapis cellulaire en coculture et pour que celui-ci soit de bonne qualité, il faut que l’endomètre soit réceptif (après J19 du cycle). Conclusion : Nous avons montré que la qualité des tapis cellulaires dépendait du jour de la biopsie d’endomètre et que cette qualité pouvait influencer le bénéfice de la co-culture. Il serait intéressant d’étudier la réceptivité de l’endomètre au moment de la biopsie avant utilisation des cellules en co-culture pour optimiser la qualité du tapis cellulaire.
Resumo:
Les nouvelles technologies et l’arrivée de l’Internet ont considérablement facilité les échanges transnationaux de données entre les entreprises publiques et/ou privées et également entre les personnes elles-mêmes. Cependant cette révolution numérique n’a pas été sans conséquences sur l’utilisation de nos données personnelles puisque cette abondance de données à la portée de tiers peut conduire à des atteintes : la commercialisation des données personnelles sans le consentement de l’intéressé par des entreprises ou encore la diffusion de sa photographie, de son nom, de son prénom à son insu en sont des exemples. La question qui vient alors se poser est en cas de litige, c’est-à-dire en cas d’atteintes au droit à la protection de nos données personnelles, présentant un ou des éléments d’extranéité, quels tribunaux pouvons-nous saisir ? Et quelle est la loi qui sera applicable ? Les droits québécois, de l’Union européenne, et suisse présentent différents critères de rattachement intéressants et adaptés à des situations prenant place hors et sur internet. Le droit commun de chacun de ces systèmes est envisagé, puis appliqué aux données personnelles dans le cadre d’une situation normale, et ensuite à internet si la situation diffère. La doctrine est également analysée dans la mesure où certaines solutions sont tout à fait intéressantes, et cela notamment sur internet. Un premier chapitre est consacré à la compétence internationale des tribunaux et aux critères de rattachement envisageables en droit commun à savoir notamment : le tribunal de l’État de survenance du préjudice, le tribunal de l’État de la faute ou encore le tribunal du domicile de la victime. Et ceux prévus ou non par la doctrine tels que l’accessibilité et le ciblage par exemple. Les conflits de lois sont étudiés dans un deuxième chapitre avec également l’énumération les différents facteurs de rattachement envisageables en droit commun comme la loi de l’État du préjudice, la loi de l’État de la faute ou encore la loi de l’État favorisant la victime. Et également ceux prévus par la doctrine : la loi de l’État « offrant la meilleure protection des données à caractère personnel » ou encore la loi de l’État où est établi le « maître du fichier ». Le tribunal le plus compétent au regard des principes généraux de droit international privé en cas d’atteintes au droit de la protection des données personnelles hors et sur internet est le tribunal de l’État du domicile de la victime. Et la meilleure loi applicable est la loi de l’État du domicile ou de la résidence principale du demandeur et du défendeur à l’instance, et dans le cas où la situation ne présente pas d’éléments d’extranéité, la meilleure loi est la loi favorisant la victime.
Resumo:
Le vieillissement de la population canadienne qui est appréhendé dans les années à venir entrainera son lot de défis pour l’administration des soins et services de longue durée. Par contre, une amélioration de l’état de santé fonctionnelle de la population pourrait atténuer le rythme de croissance du nombre d’aînés en état d’incapacité. Utilisant les données transversales de l’Enquête nationale sur la santé de la population (ENSP) et de l’Enquête de santé dans les collectivités canadiennes (ESCC), cette recherche analyse les tendances dans les niveaux d’incapacité chez les personnes de 65 ans et plus vivant dans les ménages privés au Canada entre 1994 et 2005, ainsi que les caractéristiques sociodémographiques associées au risque d’être en incapacité. Les résultats montrent que la prévalence de l’incapacité est à la baisse durant la période, et que parmi les personnes en incapacité, la proportion présentant une incapacité légère a diminué. Tout étant égal par ailleurs, certaines caractéristiques sociodémographiques augmentent le risque pour une personne âgée d’être en incapacité, notamment l’âge, être une femme, la faible scolarité, et être veuf, séparé ou divorcé. Cependant, les limites relativement importantes quant à la qualité des données font en sorte que nous devons interpréter ces résultats avec prudence.
Resumo:
La mammite subclinique est un problème de santé fréquent et coûteux. Les infections intra-mammaires (IIM) sont souvent détectées à l’aide de mesures du comptage des cellules somatiques (CCS). La culture bactériologique du lait est cependant requise afin d’identifier le pathogène en cause. À cause de cette difficulté, pratiquement toutes les recherches sur la mammite subclinique ont été centrées sur la prévalence d’IIM et les facteurs de risque pour l’incidence ou l’élimination des IIM sont peu connus. L’objectif principal de cette thèse était d’identifier les facteurs de risque modifiables associés à l’incidence, l’élimination et la prévalence d’IIM d’importance dans les troupeaux laitiers Canadiens. En premier lieu, une revue systématique de la littérature sur les associations entre pratiques utilisées à la ferme et CCS a été réalisée. Les pratiques de gestion constamment associées au CCS ont été identifiées et différentiées de celles faisant l’objet de rapports anecdotiques. Par la suite, un questionnaire bilingue a été développé, validé, et utilisé afin de mesurer les pratiques de gestion d’un échantillon de 90 troupeaux laitiers canadiens. Afin de valider l’outil, des mesures de répétabilité et de validité des items composant le questionnaire ont été analysées et une évaluation de l’équivalence des versions anglaise et française a été réalisée. Ces analyses ont permis d’identifier des items problématiques qui ont du être recatégorisés, lorsque possible, ou exclus des analyses subséquentes pour assurer une certaine qualité des données. La plupart des troupeaux étudiés utilisaient déjà la désinfection post-traite des trayons et le traitement universel des vaches au tarissement, mais beaucoup des pratiques recommandées n’étaient que peu utilisées. Ensuite, les facteurs de risque modifiables associés à l’incidence, à l’élimination et à la prévalence d’IIM à Staphylococcus aureus ont été investigués de manière longitudinale sur les 90 troupeaux sélectionnés. L’incidence d’IIM semblait être un déterminant plus important de la prévalence d’IIM du troupeau comparativement à l’élimination des IIM. Le port de gants durant la traite, la désinfection pré-traite des trayons, de même qu’une condition adéquate des bouts de trayons démontraient des associations désirables avec les différentes mesures d’IIM. Ces résultats viennent souligner l’importance des procédures de traite pour l’obtention d’une réduction à long-terme de la prévalence d’IIM. Finalement, les facteurs de risque modifiables associés à l’incidence, à l’élimination et à la prévalence d’IIM à staphylocoques coagulase-négatif (SCN) ont été étudiés de manière similaire. Cependant, afin de prendre en considération les limitations de la culture bactériologique du lait pour l’identification des IIM causées par ce groupe de pathogènes, une approche semi-Bayesienne à l’aide de modèles de variable à classe latente a été utilisée. Les estimés non-ajusté de l’incidence, de l’élimination, de la prévalence et des associations avec les expositions apparaissaient tous considérablement biaisés par les imperfections de la procédure diagnostique. Ce biais était en général vers la valeur nulle. Encore une fois, l’incidence d’IIM était le principal déterminant de la prévalence d’IIM des troupeaux. Les litières de sable et de produits du bois, de même que l’accès au pâturage étaient associés à une incidence et une prévalence plus basse de SCN.
Resumo:
Nous avons mené une étude empirique pour tester les conclusions théoriques d'un article de Foellmi et Oeschlin (2010), selon lesquelles la libéralisation commerciale accroît les inégalités de revenu dans les pays dont les marchés financiers sont affectés par des frictions. On réalise une régression sur des indices synthétiques de la distribution des revenus, de type Gini, de l’ouverture commerciale, en interaction avec un indicateur de disponibilité du crédit. On dispose d’un panel de pays en développement et de pays émergents, comprenant des données annuelles. Il apparaît que les signes de nos variables d’intérêts sont toujours cohérents avec l’analyse de Foellmi et Oeschlin, même après intégration de divers groupes de variables de contrôle et également lorsque les régressions sont effectuées sur des données agrégées par 5 ans. Néanmoins, les paramètres perdent en significativité pour certains groupes de variables de contrôle, certainement du fait de la faible qualité des données et de la taille relativement modeste de l’échantillon.
Resumo:
OBJECTIF Informer les médecins de première ligne concernant le dépistage, le diagnostic et le traitement des troubles psychologiques associés aux événements traumatiques. QUALITÉ DES DONNÉES Les recensions proviennent de recherches via les banques de données PsycLIT, PsyINFO, PILOTS et MEDLINE (de janvier 1985 à décembre 2000) utilisant les termes « acute stress disorder », « posttraumatic stress disorder », « traumatic stress », « psychotherapy », « psychosocial treatment », « treatment » et « pharmacotherapy ». Les recommandations concernant le traitement de l’état de stress aigu (ÉSA) et du trouble de stress post-traumatique (TSPT) reposent sur des données probantes provenant d’essais thérapeutiques d’excellente qualité. Les conclusions portant sur le diagnostic et l’évaluation reposent sur les plus récentes études épidémiologiques ainsi que sur des consensus et des opinions d’experts. PRINCIPAL MESSAGE Très souvent, l’ÉSA et le TSPT sont sous-diagnostiqués et sous-traités. Les médecins de famille sont susceptibles de recevoir des patients souffrant de ces troubles. Le dépistage précoce en première ligne repose sur une écoute attentive, sur une relation chaleureuse et sécurisante avec le patient et sur la recherche de difficultés d’adaptation en lien avec un événement traumatique. Idéalement, les individus souffrant d’un ÉSA ou d’un TSPT sont orientés vers une ressource spécialisée. Si de telles ressources ne sont pas accessibles, le médecin peut offrir des conseils et prescrire une médication en fonction des symptômes. CONCLUSION Les médecins de famille peuvent contribuer à identifier et traiter les patients souffrant de l’un ou l’autre de ces troubles.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.