164 resultados para Temps de réaction sériels
Resumo:
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition
Resumo:
Nous analysons des bulles d'espace-temps d'épaisseur finie en relativité générale. Les conditions d'énergie sont utilisées afin d'obtenir un ensemble de critères permettant de restreindre la structure du bord de la bulle. Dans le cas des bulles statiques et à symétrie sphérique, nous obtenons quatre inégalités différentielles équivalentes aux trois conditions d'énergie les plus communes. Nous montrons qu'elles sont équivalentes à un ensemble de deux inégalités différentielles simples lorsque le potentiel gravitationnel effectif a une forme particulière. Nous paramétrons alors l'espace-temps de manière à rendre la vérification de ces inégalités plus simple lorsqu'il sera question de bulles d'espace-temps. Nous traitons en particulier quatre formes de bulles, toutes caractérisées par un extérieur de type Schwarzschild de Sitter. Nous montrons que notre méthode donne les bons résultats lorsque la limite où l'épaisseur de la bulle tend vers zéro est prise. Nous terminons par un traitement succinct du problème d'une onde gravitationnelle se propageant dans un nuage de bulles d'espace-temps.
Resumo:
On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Cette recherche porte sur la qualité d’emploi chez les nouveaux diplômés des études postsecondaires au Canada. Elle est motivée par les nombreux bouleversements vécus par le marché du travail, la pénurie de main-d’oeuvre qualifiée et le fait que deux Canadiens sur trois sont directement concernés par la qualité d’emploi. En s’appuyant sur la typologie de Cloutier (2008), nous nous sommes fixé deux objectifs. Le premier vise à examiner l’évolution de la qualité d’emploi des nouveaux diplômés postsecondaires au Canada entre 1992 et 2007. Le deuxième objectif consiste à évaluer l’influence du niveau d’études, du domaine d’études et du sexe des nouveaux diplômés sur la qualité de leur emploi. L’analyse est de type empirique qui s’appuie sur les données de l’Enquête nationale auprès des diplômés réalisée auprès des promotions de 1990 et de 2005 par Statistiques Canada. Concernant le premier objectif, nos résultats indiquent que les dimensions rémunération, stabilité d’emploi et qualification se sont affaiblies en 2007 comparativement à 1992. Quant au deuxième objectif, nous avons trouvé que le niveau d’études et le domaine d’études sont des déterminants importants des quatre dimensions de la qualité d’emploi considérées. Un niveau d’études élevé augmente la rémunération annuelle et la probabilité d’occuper un emploi à temps plein. À l’opposé, la probabilité d’occuper un emploi qualifié et celle d’avoir un emploi permanent sont négativement associées au niveau d’études. Par ailleurs, il ressort de nos résultats que le marché du travail valorise particulièrement les domaines qui permettent aux étudiants d’acquérir des compétences professionnelles. La rémunération, les chances d’occuper un travail à temps plein et la probabilité d’accéder à un emploi qualifié sont relativement plus élevées pour les finissants dans ces domaines. Concernant l'impact du sexe, les résultats obtenus indiquent qu’il n’est pas statistiquement significatif dans le cas des dimensions de la stabilité d’emploi et de l’accès à un emploi qualifié. Néanmoins, les hommes gagnent en moyenne plus que les femmes et sont plus susceptibles d’occuper un emploi à temps plein.
Resumo:
La nature des acides dans un environnement aqueux est primordiale dans de nombreux aspects de la chimie et de la biologie. La caractéristique principale d'un acide est sa capacité à transférer un proton vers une molécule d'eau ou vers n'importe quelle base, mais ce procédé n'est pas aussi simple qu'il y paraît. Il peut au contraire être extrêmement complexe et dépendre de manière cruciale de la solvatation des différents intermédiaires de réaction impliqués. Cette thèse décrit les études computationnelles basées sur des simulations de dynamique moléculaire ab initio qui ont pour but d'obtenir une description à l'échelle moléculaire des divers procédés de transferts de proton entre acide et bases dans un milieu aqueux. Pour cela, nous avons étudié une serie de système, dont l'acide hydrofluorique aqueux, l'acide trifluoroacétique aqueux, et un système modèle constitué d'un phénol et d'une entité carboxylate reliés entre eux par une molécule d'eau en solution aqueuse. Deux états intermédiaires ont été identifiés pour le transfert d'un proton depuis un acide. Ces intermédiaires apparaissent stabilisés par un motif local de solvatation via des ponts H. Leurs signatures spectroscopiques ont été caractérisées au moyen de la spectroscopie infrarouge, en utilisant le formalisme de la dynamique moléculaire ab initio, qui inclut l'effet quantique nucléaire de manière explicite. Cette étude a aussi identifié trois chemins de réaction élémentaire, qui sont responsable pour le transfert d'un proton d'un acide à une base, ainsi que leurs échelles de temps caractéristiques. Les conclusions tirées de ces études sont discutées dans les détails, au niveau moléculaire, avec une emphase sur les comparaisons entre les résultats théoriques et les mesures expérimentales obtenues dans a littérature ou via des collaborateurs.
Resumo:
Cette thèse décrit le développement et la méthodologie pour la synthèse de 2-pyrazolo[1,5-a]pyridines à partir d’ylures de N-iminopyridinium et d’halogénures de styryle. Des dérivés de chaque ylure de N-iminopyridinium et d’halogénures de styryle ont été utilisés pour la synthèse de plusieurs composés avec un intérêt pharmaceutique. Le premier chapitre présente les précédents littéraires pour la synthèse de pyrazolopyridines. Spécifiquement trois types différents de synthèse seront présentés en détail. L’importance biologique de ces composés sera discutée. La vue d’ensemble des travaux développés dans notre groupe de recherche pour la synthèse des produits de départ sera présentée brièvement. Finalement, la science intéressante qui a apporté cette idée de recherche sera révélée. Le deuxième chapitre décrit les résultats des optimisations étudiées pour la synthèse des 2-phénylpyrazolo[1,5-a]pyridines à partir d’ylures de N-benzoyl-iminopyridinium et d’iodure de styryle. Chaque substrat de la réaction a été étudié individuellement afin d’être optimisé; les ratios, les solvants, la température du milieu réactionnel et le temps optimal de la réaction ont aussi été explorés. Le troisième chapitre présente l’étendue de la synthèse des pyrazolopyridines. L’étendue de la réaction inclut les dérivés des halogénures de styryle. L’étendue de la réaction a été élargie aux dérivés d’ylures de N-iminopyridinium et ils incluent des groupements donneurs d’électrons ainsi que des groupements pauvres en électrons. Des groupements exotiques d’iodure et de bromure de vinyle ont aussi été explorés. Le quatrième chapitre démontre les études mécanistiques que l’on a faites pour mieux comprendre les cycles catalytiques qui ont lieu durant la réaction. Des études de cyclisation avec les ylures de N-iminopyridinium ont été explorées pour les produits de départ suivants : iodure de styryle et phényl acetylène.
Resumo:
Nous considérons des processus de diffusion, définis par des équations différentielles stochastiques, et puis nous nous intéressons à des problèmes de premier passage pour les chaînes de Markov en temps discret correspon- dant à ces processus de diffusion. Comme il est connu dans la littérature, ces chaînes convergent en loi vers la solution des équations différentielles stochas- tiques considérées. Notre contribution consiste à trouver des formules expli- cites pour la probabilité de premier passage et la durée de la partie pour ces chaînes de Markov à temps discret. Nous montrons aussi que les résultats ob- tenus convergent selon la métrique euclidienne (i.e topologie euclidienne) vers les quantités correspondantes pour les processus de diffusion. En dernier lieu, nous étudions un problème de commande optimale pour des chaînes de Markov en temps discret. L’objectif est de trouver la valeur qui mi- nimise l’espérance mathématique d’une certaine fonction de coût. Contraire- ment au cas continu, il n’existe pas de formule explicite pour cette valeur op- timale dans le cas discret. Ainsi, nous avons étudié dans cette thèse quelques cas particuliers pour lesquels nous avons trouvé cette valeur optimale.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Dans le cadre d’une sociologie des organisations portant sur les liens entre organisations télévisuelles et environnement, la présente thèse a pour objectif de cerner les modalités du développement récent de la télévision au Québec en le comparant à celui de la Belgique francophone et de la Suisse. Une telle comparaison repose sur un principe méthodologique simple: on cerne d’autant mieux la réalité que l’on étudie si on peut la comparer à une réalité équivalente d’autres sociétés. En s’appuyant sur des théories de développement organisationnel reliées au courant néo-fonctionnaliste et en adaptant des « histoires de cas » d’études organisationnelles à la réalité télévisuelle des années 90 et 2000, le chercheur a mis au point une grille de classification des données permettant d’étudier les composantes du développement de la télévision dans trois « petites » sociétés industrialisées. Dans un premier temps, il a pu constater une augmentation très importante du nombre de chaînes de télévision par rapport à ce qu’il était dans les années 50 à 70, le tout encadré par les autorités réglementaires en place. Par la suite, dans chacune de ces trois sociétés et sur une période de vingt-cinq ans, il a pu préciser les interactions et échanges entre organisations télévisuelles et environnement lesquels ont été, selon les cas, harmonieux, difficiles, voire même conflictuels. Après avoir comparé les modalités d’une telle augmentation entre les trois sociétés, le chercheur a pu constater une convergence de surface. On note bien quelques similitudes entre les trois sociétés, mais, surtout, chacune d’entre elles est restée sur son quant-à-soi. En Suisse, l’importance accordée au consensus social a favorisé un développement équilibré de l’augmentation des chaines. En Belgique, pays aux divisions profondes constamment réaffirmées, les oppositions ont permis, malgré tout, l’édification d’un ensemble audiovisuel relativement stable. Au Québec, avec une augmentation exponentielle du nombre de chaines, on a assisté à un véritable surdéveloppement de la télévision encouragé et planifié par les autorités gouvernementales canadiennes en réaction à un supposé envahissement culturel américain. Le CRTC, la régie des ondes canadiennes, a pesé de tout son poids pour favoriser l’augmentation du contenu canadien et de la production locale. Par ailleurs, cette augmentation s’est faite avec des ressources limitées. On en fait trop avec trop peu. C’est ce qui permettrait d’expliquer la baisse de qualité de la télévision québécoise contemporaine. Comme élément de solution aux problèmes que la télévision québécoise connait présentement, il faudrait considérer cette dernière pour ce qu’elle est véritablement: une petite télévision dans un univers industriellement hautement développé. Si une telle conception est très bien acceptée aussi bien en Belgique qu’en Suisse, elle ne l’est pas au Québec
Resumo:
Dans cet article, nous examinons le sort des documents qui ne sont pas destinés à vivre longtemps et qui ne méritent ainsi aucun traitement documentaire traditionnel. Nous défendrons la thèse que les traitements automatiques, bien que produisant des résultats de moindre qualité que les traitements humains, ont leur place pour le traitement de certains documents éphémères. Ils doivent cependant répondre à des normes de qualité qu’il faut définir de nouveau dans le contexte numérique.
Resumo:
Rapport de recherche présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Cette recherche porte sur les conséquences sociales, au Québec, de la maladie cœliaque et des allergies alimentaires. Elle vise à expliquer et comprendre comment la maladie cœliaque et les allergies alimentaires influencent les relations sociales, les activités sociales et les perceptions des personnes qui vivent avec ces conditions, ainsi que celles de leurs proches. Pour ce faire, des entrevues semi-dirigées ont été effectuées auprès de 11 participants qui étaient soit cœliaque, allergique ou membre de l’entourage. Durant ces entrevues, il a été question de diagnostic, d’accidents alimentaires, d’accessibilité, d’activités amicales, de la réaction et de l’adaptation de la famille, de perceptions et de relations amoureuses. Une comparaison, entre les expériences des cœliaques et des allergiques, est réalisée suite à la description celles-ci. Les données d’entrevues ont été analysées avec le concept d’habitus de Bourdieu (1980), les concepts d’agency et de règles de Giddens (1979), les concepts d’exclusion et d’identité ainsi qu’avec les différentes définitions de la maladie et une échelle de gravité des perceptions. De cette recherche, on notera que les perceptions de la maladie sont différentes chez les cœliaques et les allergiques. La maladie cœliaque tend à être moins prise en charge par les professionnels de la santé et être considérée avec moins de sérieux, par les cœliaques et la population générale, que les allergies alimentaires. Les deux conditions amènent une modification de l’habitus et une période d’adaptation. Par contre, cet exercice semble être plus difficile et complexe pour les cœliaques que les allergiques, dû à l’âge où la condition est découverte. Dépendant de la souplesse de l’habitus individuel et de groupe, la confrontation à cette reformulation de l’habitus se produira plus ou moins bien. Dans le cas où la confrontation prend une tangente négative, il en découlera une désapprobation sociale ou un déni personnel qui mènera à l’exclusion. La littérature indique généralement que la qualité de vie des cœliaques et des allergiques diminue progressivement avec le temps, entraînant des conséquences négatives au niveau social, émotif et physique. Mes participants semblent, toutefois, bien vivre avec leur condition respective puisqu’ils profitent d’un bon support de la part de leur entourage.
Resumo:
Ce mémoire analyse l’espérance du temps de fixation conditionnellement à ce qu’elle se produise et la probabilité de fixation d’un nouvel allèle mutant dans des populations soumises à différents phénomènes biologiques en uti- lisant l’approche des processus ancestraux. Tout d’abord, l’article de Tajima (1990) est analysé et les différentes preuves y étant manquantes ou incomplètes sont détaillées, dans le but de se familiariser avec les calculs du temps de fixa- tion. L’étude de cet article permet aussi de démontrer l’importance du temps de fixation sur certains phénomènes biologiques. Par la suite, l’effet de la sé- lection naturelle est introduit au modèle. L’article de Mano (2009) cite un ré- sultat intéressant quant à l’espérance du temps de fixation conditionnellement à ce que celle-ci survienne qui utilise une approximation par un processus de diffusion. Une nouvelle méthode utilisant le processus ancestral est présentée afin d’arriver à une bonne approximation de ce résultat. Des simulations sont faites afin de vérifier l’exactitude de la nouvelle approche. Finalement, un mo- dèle soumis à la conversion génique est analysé, puisque ce phénomène, en présence de biais, a un effet similaire à celui de la sélection. Nous obtenons finalement un résultat analytique pour la probabilité de fixation d’un nouveau mutant dans la population. Enfin, des simulations sont faites afin de détermi- nerlaprobabilitédefixationainsiqueletempsdefixationconditionnellorsque les taux sont trop grands pour pouvoir les calculer analytiquement.