998 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en sciences infirmières option formation en sciences infirmières
Resumo:
Ce travail de thèse porte sur la simulation du déploiement des prothèses vasculaires de type stent-graft (SG) lors de la réparation endovasculaire (EVAR) des anévrismes de l’aorte abdominale (AAA). Cette étude se présente en trois parties: (i) tests mécaniques en flexion et compression de SG couramment utilisés (corps et jambage de marque Cook) ainsi que la simulation numérique desdits tests, (ii) développement d’un modèle numérique d’anévrisme, (iii) stratégie de simulation du déploiement des SG. La méthode numérique employée est celle des éléments finis. Dans un premier temps, une vérification du modèle éléments finis (MEF) des SG est realisée par comparaison des différents cas de charge avec leur pendant expérimental. Ensuite, le MEF vasculaire (AAA) est lui aussi vérifié lors d’une comparaison des niveaux de contraintes maximales principales dans la paroi avec des valeurs de la littérature. Enfin, le déploiement est abordé tout en intégrant les cathéters. Les tests mécaniques menés sur les SG ont été simulés avec une différence maximale de 5,93%, tout en tenant compte de la pré-charge des stents. Le MEF de la structure vasculaire a montré des contraintes maximales principales éloignées de 4,41% par rapport à un modèle similaire précédemment publié. Quant à la simulation du déploiement, un jeu complet de SG a pu être déployé avec un bon contrôle de la position relative et globale, dans un AAA spécifique pré-déformé, sans toutefois inclure de thrombus intra-luminal (TIL). La paroi du AAA a été modélisée avec une loi de comportement isotropique hyperélastique. Étant donné que la différence maximale tolérée en milieu clinique entre réalité et simulation est de 5%, notre approche semble acceptable et pourrait donner suite à de futurs développements. Cela dit, le petit nombre de SG testés justifie pleinement une vaste campagne de tests mécaniques et simulations supplémentaires à des fins de validation.
Resumo:
L’espace est un élément peu exploré en musique. Méconnu des compositeurs, il n’est généralement pas pensé comme paramètre musical « composable ». Pourtant si la musique peut être perçue comme une organisation et une succession d’éléments dans le temps, pourquoi ne pourrait-elle pas l’être aussi dans l’espace? Ce travail se veut en quelque sorte un pont entre la recherche et la pratique, qui se construit par la synthèse de l’information que j’ai pu trouver sur chacune des quatre méthodes de spatialisation abordées ici. Dans un premier temps, je traiterai de leur développement, leur fonctionnement et des possibilités d’intégration de ces méthodes dans le processus de composition musicale, notamment en discutant les outils disponibles. Dans un second temps, les pièces Minimale Sédation et Fondations, toutes deux composées en octophonie seront discutées. J’expliquerai leurs processus de composition à travers les intentions, les techniques d’écriture et les outils qui ont menés à leurs créations.
Resumo:
Le syndrome douloureux régional complexe (SDRC) est un trouble neurologique qui se caractérise par des douleurs intenses, des troubles vasomoteurs, sudomoteurs, moteurs et trophiques, accompagnés d’un œdème au niveau du membre affecté. Malgré la présence de peu de données en faveur, à cause de l’absence d’un traitement clé du SDRC, le blocage sympathique a été utilisé depuis de nombreuses années pour traiter ce syndrome. Objectif Le but principal de ce projet est d’étudier l’effet antalgique de la néostigmine utilisée comme adjuvant à la bupivacaïne lors d’un bloc stellaire dans le traitement du syndrome douloureux régional complexe du membre supérieur. Méthodes Il s’agit d’une étude pilote, randomisée en double insu. L’intensité de la douleur a été évaluée en utilisant l’échelle numérique. La force de préhension aux deux mains a été estimée par dynamométrie de Jamar. La dextérité fine des doigts a été mesurée par le « Purdue Pegboard Test ». L’œdème au niveau de la main a été déterminé par la volumétrie. Le questionnaire « SF-36 » a été utilisé afin de déterminer l’homogénéité des échantillons. Résultats Notre étude a eu des difficultés à établir l’efficacité de la thérapie par bloc stellaire dans le traitement du syndrome douloureux régional complexe. Conclusion Notre recherche n’a pu prouver l’hypothèse que le traitement de la douleur dans le SDRC du membre supérieur par un bloc stellaire est plus efficace quand l’action de l’anesthésique local est potentialisée par l’ajout de la néostigmine.
Resumo:
Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.
Resumo:
Problématique: Le virus du papillome humain (VPH) est présent dans près de 50% des cancers de l’oropharynx. Le potentiel oncogénique du VPH est encodé dans les oncoprotéines E6 et E7, qui agissent en modulant différents gènes, dont les gènes suppresseurs de tumeur p53 et pRb. Les cellules VPH positives démontrent une altération au niveau de la signalisation de la réponse aux dommages à l’ADN (RDA), un mécanisme de contrôle dans l’arrêt de la croissance des cellules ayant subit des dommages au niveau de leur ADN. Hypothèse et objectifs : Nous croyons que les défauts au niveau de la RDA des cancers VPH positifs peuvent être exploités afin de sensibiliser préférentiellement les cellules cancéreuses aux traitements de radiothérapie. Cette stratégie de recherche nécessite l’élaboration d’un modèle cellulaire de carcinogenèse isogénique pour le cancer de l’oropharynx que nous proposons de développer et de caractériser. L’étude vise à dériver des lignées isogéniques à partir de kératinocytes primaires et cellules épithéliales de l’oropharynx pour ensuite valider la carcinogenèse de notre modèle in vitro & in vivo Méthodologie : Des lignées cellulaires de kératinocytes primaires et de cellules épithéliales de l’oropharynx ont été successivement modifiées par transduction afin de présenter les mutations associées aux cancers de l’oropharynx induits par le VPH. Les cellules ont été modifiées avec des lentivirus codants pour la télomérase (hTERT), les oncogènes E6, E7 et RasV12. Afin de valider la cancérogenèse in vitro de notre modèle, des études d’invasion en matrigel et de croissance sans ancrage en agar mou ont été réalisées. Les populations cellulaires transformées ont été ensuite introduites dans des souris immunodéficientes afin d’évaluer leur tumorogénicité in vivo. Résultats : À partir des plasmides recombinés construits par méthodes de clonage traditionnelle et de recombinaison « Gateway », nous avons produit des lentivirus codants pour la télomérase humaine (hTERT), les oncogènes viraux E6 et E7 et l’oncogène Ras. Les kératinocytes primaires et cellules épithéliales de l’oropharynx ont été infectés successivement par transduction et sélectionnés. Nous avons validé l’expression de nos transgènes par méthode d’immunofluorescence, de Western Blot et de réaction de polymérisation en chaîne quantitative en temps réel (qRT-PCR). Nous avons établi trois lignées des cellules épithéliales de l’oropharynx (HNOE) à partir d’échantillons tissulaires prélevés lors d’amygdalectomie (HNOE42, HNO45, HNOE46). Les cellules transduites avec le lentivirus exprimant le promoteur fort CMV/TO de l’oncogène RasV12 ont présenté un changement morphologique compatible avec une sénescence prématurée induite par l’oncogène Ras. En exprimant des quantités plus faibles du RasV12 mutant, la lignée cellulaire HEKn hTERT-E6-E7 PGK RasV12 a réussi à échapper à la sénescence induite par l’oncogène Ras. La population cellulaire exprimant HEKn hTERT-E6-E7-PGK RasV12 a présenté un phénotype malin en culture et à l’étude d'invasion, mais n’a pas démontré de résultats positifs à l’étude de croissance sans ancrage en agar mou ni en xénogreffe en souris immunodéficientes. Conclusion : Nos résultats démontrent qu’en présence des oncogènes viraux E6 et E7, il y a un troisième mécanisme suppresseur de tumeur qui médie la sénescence induite par l’oncogène Ras. Nous avons identifié que la présence de E6 seule ne suffit pas à immortaliser les kératinocytes primaires humains (HEKn). Nous n’avons pas réussi à créer un modèle in vitro de carcinogenèse pour les cancers de l’oropharynx induits par le VPH.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Le but de ce projet était de développer des méthodes d'assemblage de novo dans le but d'assembler de petits génomes, principalement bactériens, à partir de données de séquençage de nouvelle-génération. Éventuellement, ces méthodes pourraient être appliquées à l'assemblage du génome de StachEndo, une Alpha-Protéobactérie inconnue endosymbiote de l'amibe Stachyamoeba lipophora. Suite à plusieurs analyses préliminaires, il fut observé que l’utilisation de lectures Illumina avec des assembleurs par graphe DeBruijn produisait les meilleurs résultats. Ces expériences ont également montré que les contigs produits à partir de différentes tailles de k-mères étaient complémentaires pour la finition des génomes. L’ajout de longues paires de lectures chevauchantes se montra essentiel pour la finition complète des grandes répétitions génomiques. Ces méthodes permirent d'assembler le génome de StachEndo (1,7 Mb). L'annotation de ce génome permis de montrer que StachEndo possède plusieurs caractéristiques inhabituelles chez les endosymbiotes. StachEndo constitue une espèce d'intérêt pour l'étude du développement endosymbiotique.
Resumo:
La voie de signalisation Ras/MAPK (Ras/mitogen-activated protein kinase) régule une variété de protéines intracellulaires qui jouent un rôle important dans la croissance et la prolifération cellulaire. La régulation inappropriée de cette voie de signalisation conduit au développement de nombreux cancers comme le mélanome, qui est caractérisé par des mutations activatrices au niveau des gènes NRAS et BRAF. La protéine kinase RSK (p90 ribosomal S6 kinase) est un composant central de la voie Ras/MAPK, mais son rôle dans la croissance et la prolifération cellulaire n’est pas bien compris. RSK a été montrée pour participer à la résistance des mélanomes aux chimiothérapies, mais le mécanisme moléculaire reste encore à élucider. Nous montrons à l’aide d’un anticorps phospho-spécifique que MDM2 est phosphorylée en réponse à des agonistes et des mutations oncogéniques activant spécifiquement la voie Ras/MAPK. En utilisant des méthodes in vitro et in vivo, nous avons constaté que RSK phosphoryle directement MDM2 sur les Sérines 166 et 186, ce qui suggère que MDM2 est un substrat de RSK. La mutagénèse dirigée envers ces sites nous indique que ces résidus régulent l’ubiquitination de MDM2, suggérant que RSK régule la stabilité de MDM2 et de p53. De plus, nous avons observé que l’inhibition de RSK conduit à une augmentation du niveau protéique de p53 après un dommage à l’ADN dans les cellules de mélanomes. En conclusion, nos travaux suggèrent un rôle important de la protéine kinase RSK dans la régulation de MDM2 et de sa cible, p53. L’étude de ces mécanismes moléculaires aidera à mieux définir le rôle de RSK dans la croissance tumorale, mais également dans la résistance aux agents chimiothérapeutiques.
Resumo:
Les thiols à faible masse moléculaire (FMM) peuvent affecter la biodisponibilité du mercure et mener à une plus grande production de méthylmercure par les microorganismes méthylants. Les résultats d’une étude réalisée au sein de la matrice extracellulaire du périphyton de la zone littorale d’un lac des Laurentides ont démontré que les concentrations en thiols à FMM retrouvées dans cette matrice sont jusqu’à 1000 fois supérieures à celles de la colonne d’eau avoisinante. Ces thiols sont significativement corrélés à la chlorophylle a du périphyton, suggérant une production par les algues. Le mercure de la matrice extracellulaire, plus spécifiquement dans la fraction colloïdale mobile, est aussi corrélé aux thiols d’origine algale. Ces résultats suggèrent qu’une accumulation de thiols s’opère dans l’espace extracellulaire du périphyton et qu’ils peuvent favoriser le transfert du mercure vers les microorganismes produisant le méthylmercure. Les résultats d’une seconde étude menée sur les méthodes de préservation d’échantillons d’eau pour la conservation des thiols à FMM ont démontré que la température optimale d’entreposage était de -80 °C et que la lyophilisation menait à une sous-estimation des concentrations mesurées. Les taux de dégradation étaient plus rapides lors de la conservation à -20 °C et variables selon la chimie de l’eau utilisée et les espèces de thiols observées. Suivant ces résultats, nous proposons un cadre de recherche pour de futures études sur la spéciation du mercure dans le périphyton et nous suggérons des précautions lors de la manipulation et de la conservation des thiols à FMM d’échantillons naturels.
Resumo:
Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)
Resumo:
Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.
Resumo:
Réalisé en co-tutelle avec l'Université Paul-Valéry-Montpellier III.
Resumo:
Des avancements récents dans le domaine de la radiothérapie stéréotaxique permettent à un nombre grandissant de patients de recevoir un traitement non-invasif pour le cancer du foie. L’une des méthodes utilisées consiste à suivre le mouvement de la tumeur à l’aide de marqueurs radio-opaques insérés dans le foie grâce au système de suivi de l’appareil de traitement CyberKnife. Or, l’insertion de ces marqueurs est parfois trop invasive pour certains patients souffrant de maladie du foie avancée. Ces patients ont souvent un historique de chirurgie qui permet d’utiliser les agrafes chirurgicales déjà présentes dans leur foie dans le but de suivre leur tumeur. Cette nouvelle approche au traitement des tumeurs du foie est investiguée dans cette étude afin d’en déterminer les paramètres optimaux pour une meilleure pratique thérapeutique. L’expérimentation sur fantôme anthropomorpique a permis de conclure que le contraste des agrafes dans leur milieu augmente lors de l’augmentation des paramètres d’imagerie (kilovoltage et milliampérage de l’appareil de radiographie). D’autre part, l’erreur commise par le système CyberKnife dans l’identification des agrafes pour le suivi a été mesurée comme étant supérieure à celle sur l’emplacement des marqueurs radiologiques de platine (environ 1 mm contre moins de 1 mm). Cette erreur est considérée comme acceptable dans le contexte de ce type de traitement particulier. Enfin, une analyse gamma de l’impact dosimétrique du suivi par agrafes a montré qu’il était approximativement équivalent à celui par marqueurs de platine. De ces observations on conclue que le traitement des tumeurs du foie avec suivi des agrafes chirurgicales est valide et peut être amélioré suivant certaines recommandations cliniques.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.