14 resultados para Erreur d’estimation
em Université Laval Mémoires et thèses électroniques
Resumo:
Cette thèse porte sur l’effet du risque de prix sur la décision des agriculteurs et les transformateurs québécois. Elle se divise en trois chapitres. Le premier chapitre revient sur la littérature. Le deuxième chapitre examine l’effet du risque de prix sur la production de trois produits, à savoir le maïs grain, la viande de porc et la viande d’agneau dans la province Québec. Le dernier chapitre est centré sur l’analyse de changement des préférences du transformateur québécois de porc pour ce qui est du choix de marché. Le premier chapitre vise à montrer l’importance de l’effet du risque du prix sur la quantité produite par les agriculteurs, tel que mis en évidence par la littérature. En effet, la littérature révèle l’importance du risque de prix à l’exportation sur le commerce international. Le deuxième chapitre est consacré à l’étude des facteurs du risque (les anticipations des prix et la volatilité des prix) dans la fonction de l’offre. Un modèle d’hétéroscédasticité conditionnelle autorégressive généralisée (GARCH) est utilisé afin de modéliser ces facteurs du risque. Les paramètres du modèle sont estimés par la méthode de l’Information Complète Maximum Vraisemblance (FIML). Les résultats empiriques montrent l’effet négatif de la volatilité du prix sur la production alors que la prévisibilité des prix a un effet positif sur la quantité produite. Comme attendu, nous constatons que l’application du programme d’assurance-stabilisation des revenus agricoles (ASRA) au Québec induit une plus importante sensibilité de l’offre par rapport au prix effectif (le prix incluant la compensation de l’ASRA) que par rapport au prix du marché. Par ailleurs, l’offre est moins sensible au prix des intrants qu’au prix de l’output. La diminution de l’aversion au risque de producteur est une autre conséquence de l’application de ce programme. En outre, l’estimation de la prime marginale relative au risque révèle que le producteur du maïs est le producteur le moins averse au risque (comparativement à celui de porc ou d’agneau). Le troisième chapitre consiste en l’analyse du changement de préférence du transformateur québécois du porc pour ce qui est du choix de marché. Nous supposons que le transformateur a la possibilité de fournir les produits sur deux marchés : étranger et local. Le modèle théorique explique l’offre relative comme étant une fonction à la fois d’anticipation relative et de volatilité relative des prix. Ainsi, ce modèle révèle que la sensibilité de l’offre relative par rapport à la volatilité relative de prix dépend de deux facteurs : d’une part, la part de l’exportation dans la production totale et d’autre part, l’élasticité de substitution entre les deux marchés. Un modèle à correction d’erreurs est utilisé lors d’estimation des paramètres du modèle. Les résultats montrent l’effet positif et significatif de l’anticipation relative du prix sur l’offre relative à court terme. Ces résultats montrent donc qu’une hausse de la volatilité du prix sur le marché étranger par rapport à celle sur le marché local entraine une baisse de l’offre relative sur le marché étranger à long terme. De plus, selon les résultats, les marchés étranger et local sont plus substituables à long terme qu’à court terme.
Resumo:
L’estimation temporelle de l’ordre des secondes à quelques minutes requiert des ressources attentionnelles pour l’accumulation d’information temporelle pendant l’intervalle à estimer (Brown, 2006; Buhusi & Meck, 2009; Zakay & Block, 2004). Ceci est démontré dans le paradigme de double tâche, où l’exécution d’une tâche concurrente pendant l’estimation d’un intervalle mène à un effet d’interférence, soit une distorsion de la durée perçue se traduisant par des productions temporelles plus longues et plus variables que si l’estimation de l’intervalle était effectuée seule (voir Brown, 1997; 2010). Un effet d’interférence est également observé lorsqu’une interruption est attendue pendant l’intervalle à estimer, l’allongement étant proportionnel à la durée d’attente de l’interruption (Fortin & Massé, 2000). Cet effet a mené à l’hypothèse que la production avec interruption serait sous-tendue par un mécanisme de partage attentionnel similaire à la double tâche (Fortin, 2003). Afin d’étudier cette hypothèse, deux études empiriques ont été effectuées dans des contextes expérimentaux associés respectivement à une augmentation et à une diminution de l’effet d’interférence, soit le vieillissement (Chapitre II) et l’entraînement cognitif (Chapitre III). Dans le Chapitre II, la tâche de production avec interruption est étudiée chez des participants jeunes et âgés à l’aide de la spectroscopie proche infrarouge fonctionnelle (SPIRf). Les résultats montrent que l’attente de l’interruption est associée à des coûts comportementaux et fonctionnels similaires à la double tâche. Au niveau comportemental, un allongement des productions proportionnel à la durée d’attente de l’interruption est observé chez l’ensemble des participants, mais cet effet est plus prononcé chez les participants âgés que chez les jeunes. Ce résultat est compatible avec les observations réalisées dans le paradigme de double tâche (voir Verhaegen, 2011 pour une revue). Au niveau fonctionnel, la production avec et sans interruption est associée à l’activation du cortex préfrontal droit et des régions préfrontales dorsolatérales connues pour leur rôle au niveau de l’estimation temporelle explicite (production d’intervalle) et implicite (processus préparatoires). En outre, l’attente de l’interruption est associée à l’augmentation de l’activation corticale préfrontale dans les deux hémisphères chez l’ensemble des participants, incluant le cortex ventrolatéral préfrontal associé au contrôle attentionnel dans la double tâche. Finalement, les résultats montrent que les participants âgés se caractérisent par une activation corticale bilatérale lors de la production sans et avec interruption. Dans le cadre des théories du vieillissement cognitif (Park & Reuter-Lorenz, 2009), cela suggère que l’âge est associé à un recrutement inefficace des ressources attentionnelles pour la production d’intervalle, ceci nuisant au recrutement de ressources additionnelles pour faire face aux demandes liées à l’attente de l’interruption. Dans le Chapitre III, la tâche de production avec interruption est étudiée en comparant la performance de participants assignés à l’une ou l’autre de deux conditions d’exécution extensive (cinq sessions successives) de double tâche ou de production avec interruption. Des sessions pré et post-test sont aussi effectuées afin de tester le transfert entre les conditions. Les résultats montrent un effet d’interférence et de durée d’interférence tant en production avec double tâche qu’en production avec interruption. Ces effets sont toutefois plus prononcés lors de la production avec interruption et tendent à augmenter au fil des sessions, ce qui n’est pas observé en double tâche. Cela peut être expliqué par l’influence des processus préparatoires pendant la période pré-interruption et pendant l’interruption. Finalement, les résultats ne mettent pas en évidence d’effets de transfert substantiels entre les conditions puisque les effets de la pratique concernent principalement la préparation temporelle, un processus spécifique à la production avec interruption. Par la convergence que permet l’utilisation d’un même paradigme avec des méthodologies distinctes, ces travaux approfondissent la connaissance des mécanismes attentionnels associés à l’estimation temporelle et plus spécifiquement à la production avec interruption. Les résultats supportent l’hypothèse d’un partage attentionnel induit par l’attente de l’interruption. Les ressources seraient partagées entre les processus d’estimation temporelle explicite et implicite, une distinction importante récemment mise de l’avant dans la recherche sur l’estimation du temps (Coull, Davranche, Nazarian & Vidal, 2013). L’implication de processus dépendant des ressources attentionnelles communes pour le traitement de l’information temporelle peut rendre compte de l’effet d’interférence robuste et systématique observé dans la tâche de production avec interruption.
Resumo:
Les préhenseurs robotiques sont largement utilisés en industrie et leur déploiement pourrait être encore plus important si ces derniers étaient plus intelligents. En leur conférant des capacités tactiles et une intelligence leur permettant d’estimer la pose d’un objet saisi, une plus vaste gamme de tâches pourraient être accomplies par les robots. Ce mémoire présente le développement d’algorithmes d’estimation de la pose d’objets saisis par un préhenseur robotique. Des algorithmes ont été développés pour trois systèmes robotisés différents, mais pour les mêmes considérations. Effectivement, pour les trois systèmes la pose est estimée uniquement à partir d’une saisie d’objet, de données tactiles et de la configuration du préhenseur. Pour chaque système, la performance atteignable pour le système minimaliste étudié est évaluée. Dans ce mémoire, les concepts généraux sur l’estimation de la pose sont d’abord exposés. Ensuite, un préhenseur plan à deux doigts comprenant deux phalanges chacun est modélisé dans un environnement de simulation et un algorithme permettant d’estimer la pose d’un objet saisi par le préhenseur est décrit. Cet algorithme est basé sur les arbres d’interprétation et l’algorithme de RANSAC. Par la suite, un système expérimental plan comprenant une phalange supplémentaire par doigt est modélisé et étudié pour le développement d’un algorithme approprié d’estimation de la pose. Les principes de ce dernier sont similaires au premier algorithme, mais les capteurs compris dans le système sont moins précis et des adaptations et améliorations ont dû être appliquées. Entre autres, les mesures des capteurs ont été mieux exploitées. Finalement, un système expérimental spatial composé de trois doigts comprenant trois phalanges chacun est étudié. Suite à la modélisation, l’algorithme développé pour ce système complexe est présenté. Des hypothèses partiellement aléatoires sont générées, complétées, puis évaluées. L’étape d’évaluation fait notamment appel à l’algorithme de Levenberg-Marquardt.
Resumo:
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.
Resumo:
Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles.
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.
Resumo:
L’objectif principal de ce mémoire était de déterminer les apports optimaux en phosphore (P) en termes de performance de croissance, de minéralisation osseuse, d’excrétion de P et de fréquence d’ostéochondrose chez le porc (25 à 120 kg). L’expérience s’est échelonnée sur trois phases de 28 jours chacune où les porcs ont été alimentés avec des nourrisseurs automatiques. Deux aliments, soit un riche en nutriments (A) qui satisfait les besoins d’un porc de 25 kg en plus d’apporter 140 % des besoins en P digestible et en calcium (Ca) et un autre pauvre en nutriments (B) satisfaisant les besoins d’un porc de 120 kg en plus d’apporter 60 % des besoins en P digestible et en Ca ont été utilisés pour fabriquer 5 des traitements alimentaires, et le 6e traitement constituait le témoin positif. Pendant la première phase, 80 porcs ont reçu un des 5 traitements alimentaires, soit 60, 80, 100, 120 et 140 % des besoins en P avec un rapport Ca :P fixe. De faibles différences au niveau des performances de croissance ont été observées entre les traitements. La minéralisation osseuse a pour sa part augmenté linéairement avec l’augmentation des apports phosphocalciques. Aux phases 2 et 3, une erreur expérimentale s’est glissée dans la composition des aliments A et B, faisant en sorte que les quantités de Ca de chacun des deux aliments ont été inversées, soit des apports de P toujours de 60, 80, 100, 120 et 140 % des besoins, mais conjointement avec des apports de Ca de 140, 115, 100, 85 et 70 % des besoins respectivement. Ainsi, l’objectif de l’essai a été revu en tenant compte de cette erreur pour étudier l’effet de déséquilibres phosphocalciques sur les mêmes critères que ceux de la phase 1. Les résultats montrent l’importance de maintenir un équilibre entre les apports de P et de Ca afin de favoriser l’utilisation de chacun des deux éléments.
Resumo:
Le présent mémoire expose les résultats d’une étude de la performance des chantiers ouverts dans un contexte de mines profondes ayant été effectuée dans le cadre du projet de recherche « Mines profondes : défis d’exploitation et impacts sur la récupération minéralurgique » réalisé par le département de génie des mines, de la métallurgie et des matériaux de l’Université Laval. Les données utilisées dans le cadre de cette étude sont en lien avec la planification et l’exploitation de plus de mille chantiers minés entre 860 et 2 450 m de profondeur à la mine souterraine LaRonde de Mines Agnico Eagle, la plus profonde actuellement de l’hémisphère ouest. On y présente une revue de la littérature qui fait la description des problématiques de dilution et de pertes opérationnelles de la réserve minérale liées à la performance des chantiers ouverts ainsi que de leurs conséquences sur les projets miniers. Une comparaison des performances planifiées et réalisées au site de LaRonde y est présentée, ainsi que les résultats d’analyses statistiques ayant permis de montrer que la variation du ratio des contraintes in situ avec la profondeur est un facteur d’influence significatif de la performance des chantiers. L’effet de ce facteur d’influence y est aussi illustré et validé à l’aide d’une série de modèles numériques. Le mémoire présente également une première approche visant à développer un modèle d’évaluation de la dilution dans les chantiers ouverts qui prend en compte la profondeur de minage. Finalement, afin d’améliorer la précision de l’estimation de la réserve minérale lors de l’évaluation de projets miniers, une méthodologie d’estimation intégrant le modèle d’évaluation proposé est présentée pour les projets dont les contextes géologique, géotechnique et opérationnel sont comparables à ceux du site de LaRonde.
Resumo:
Les propriétés hydrauliques d’un till du Nord du Québec en condition saturée et non saturée ont été étudiées en laboratoire à l’aide de l’essai de conductivité hydraulique et l’essai de succion qui permet d’obtenir la courbe de rétention d’eau. Les essais ont été réalisés avec des échantillons compactés sous différentes conditions de teneur en eau et de masse volumique sèche, de manière à évaluer l’influence de ces conditions sur les propriétés hydrauliques. Les études précédentes ont montré qu’une structure agrégée se développe dans le till lorsqu’il est compacté de côté sec de l’optimum Proctor, c’est-à-dire à un degré de saturation de compactage inférieur au degré de saturation optimum (Sr0 < Sr-opt). Le till étudié dans le cadre de cette étude diffère de ceux utilisés dans les études précédentes par son très faible pourcentage de particules argileuses (< 2 μm) de 0,7%. L’objectif principal de cette étude est d’évaluer l’influence des conditions de compactage sur la conductivité hydraulique et la courbe de rétention d’eau et de déterminer si une structure agrégée se développe lorsque le till est compacté du côté sec de l’optimum. Les résultats expérimentaux typiques de la conductivité hydraulique saturée obtenus pour les échantillons compactés du côté humide de l’optimum (Sr0 > Sr-opt) avec un indice des vides de 0,328 varient de 2,6 x 10-7 à 8,6 x 10-7 m/s. Les conductivités hydrauliques typiques obtenues pour les échantillons compactés du côté sec de l’optimum (Sr0 < Sr-opt) avec le même indice des vides étaient très similaires, variant entre 2,4 x 10-7 et 9,1 x 10-7 m/s. Les courbes de rétention d’eau mesurées en laboratoire sont très semblables entre elles, présentant toutes une structure de sol homogène, peu importe si l’échantillon a été compacté du côté sec ou du côté humide. Il apparait que la conductivité hydraulique et la courbe de rétention d’eau de ce till sont très peu influencées par le degré de saturation de compactage. Ceci peut être expliqué par le très faible pourcentage de particules argileuses, qui prévient la formation d’agrégations de particules dans la structure du till lorsqu’il est compacté du côté sec de l’optimum Proctor. Plusieurs modèles d’estimation de la conductivité hydraulique sont utilisés. Cette étude propose trois nouveaux modèles d’estimation de la conductivité hydraulique saturée pour les tills du Nord du Québec. Le premier modèle met en relation la conductivité hydraulique saturée avec le diamètre des grains de la fraction fine (d50 FF) et le deuxième modèle est une équation modifiée de Kozeny-Carman et Hazen basée sur la porosité et une taille de particule effective (d10). Finalement, un modèle permettant d’évaluer l’effet de l’agrégation avec l’équation de Kozeny-Carman modifiée dans les tills compactés est proposé.
Resumo:
Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.
Resumo:
Ce mémoire présente l’étude expérimentale de l’écoulement d’entrée d’un aspirateur d’une turbine bulbe présentant une chute abrupte de performance. Des mesures par vélocimétrie laser à effet Doppler (LDV) ont été réalisées sur deux axes soit en aval des pales de la roue et en aval du moyeu de la roue. Une particularité de cette étude est la conception d’un montage permettant de mesurer la vitesse axiale proche de la paroi du cône. De plus, une méthode d’estimation de la vitesse radiale moyenne a été développée. Ces mesures ont permis de caractériser l’écoulement primaire et les écoulements secondaires et d’analyser leur évolution entre les deux axes. De plus, l’évolution de ces écoulements est analysée en fonction de la chute de performance de la turbine. Les principales particularités de l’écoulement sont la présence d’une recirculation sous le moyeu, d’une zone contrarotative, des sillages des directrices et des tourbillons de bout de pale.
Resumo:
Méthodologie: Test de Johansen, Test économétrique de cointégration, Modèle à variable latente
Resumo:
Méthodologie: Méta-analyse
Resumo:
Les translocations chromosomiques du gène MLL sont connues pour mener au développement de leucémies aiguës. La translocation avec un de ses partenaires de fusion les plus communs, ENL, peut engendrer des leucémies aiguës de plusieurs types différents pour cette même translocation. Une fois la leucémogenèse initiée par la fusion MLL-ENL, son rôle quant au maintien du phénotype leucémique n’est pas encore bien connu à ce jour. Pour mieux comprendre l’importance de MLL-ENL après la leucémogenèse, des cellules souches/progénitrices de sang de cordon ombilical humain purifiées ont ainsi été transduites par un virus exprimant le gène de fusion MLL-ENL bordé par des sites LoxP ainsi que le marqueur eGFP. Ces cellules infectées ont ensuite été injectées dans notre modèle de souris immunodéficientes irradiées et placées sous observation pendant 24 semaines pour voir le développement de leucémies aiguës. Elles ont alors été sacrifiées et les cellules la moelle osseuse et de la rate ont ensuite été analysées par cytométrie en flux pour déterminer si la xénogreffe a engendré une leucémie dans notre modèle ainsi que le phénotype de celle-ci. Les souris injectées par les cellules infectées par le MLL-ENL ont généré uniquement des leucémies lymphoïdes aiguës de type B. Les cellules de ces leucémies primaires isolées ont été par la suite infectées par un lentivirus exprimant la cre-recombinase et le marqueur BFP afin d’exciser le gène MLL-ENL des cellules leucémiques grâce aux sites LoxP. Les cellules ont ensuite été triées pour le marqueur BFP et injectées dans des souris secondaires pour de voir si les cellules leucémiques souches pouvaient toujours régénérer la leucémie. Les conséquences de l’absence de MLL-ENL dans le maintien du phénotype leucémique n’ont cependant pas pu être vérifiées à cause d’une erreur dans la séquence de la cre-recombinase, mais nous avons observé la régénération des leucémies secondaires.