727 resultados para Algorithme génétiques hybrides générationnels
Resumo:
Cocoa ( Theobroma cacao L. ) is an important allogamous tropical tree crop, whose centre of diversity is considered to be in Central America. Dry cocoa beans from five cocoa clones, and their intercrossed hybrids were analysed based on the variation of alkaloids and polyphenolic compounds contents, in order to gain insights on the heterosis and broad-sense heritability. Polyphenols and alkaloids were analysed at 280 nm by HPLC, using a Photodiode Array Detector (PDA); while anthocyanins were separated with the SEP-PAK Vac 6cc 1000 mg (waters) column and measured at 520 nm with a PDA. Dry cocoa beans displayed high content of purine alkaloids (2.1 and 8.8 mg g-1 for caffein and theobromine, respectively), and polyphenols (25 and 2978 µg g-1 for catechin and epicatechin, respectively). Among the five cocoa clones, SNK16 was the highest in purine alkaloid (caffein and theobromin) and flavanol (catechin and epicatechin); while T79/467 possessed the greatest quantity of cyanidin-3-galactoside and cyanidin-3-arabinoside. From all the parameters studied, anthocyanins (Cyanidin-3-galactoside and cyanidin-3-arabinoside) exhibited the highest level of heterosis. Parental genotypes SNK16 and T79/467 showed good aptitudes for the combination of characters because their reciprocal hybrids F5 and F9, distinguished themselves by better levels of mid-parent heterosis values. Besides, the heritability value in strict sense of this Cyanidin-3-galactoside was very high. Absence of significant difference between genotypes, coming from reciprocal crossbreeding for Cyanidin-3-galactoside, suggests that this character in cocoa would be nuclear contrary to purine alkaloids and flavan-3-ols, where their transmission to offsprings can be stated as cytoplasmic.
Resumo:
In the semi-arid zones of Uganda, pearl millet ( Pennisetum glaucum (L.) R. Br.) is mainly grown for food and income; but rust (Puccinia substriata var indica (L.) R. Br.) is the main foliar constraint lowering yield. The objective of the study was to genetically improve grain yield and rust resistance of two locally adapted populations (Lam and Omoda), through two cycles of modified phenotypic S1 progeny recurrent selection. Treatments included three cycles of two locally adapted pearl millet populations, evaluated at three locations. Significant net genetic gain for grain yield (72 and 36%) were achieved in Lam and Omoda populations, respectively. This led to grain yield of 1,047 from 611 kg ha-1 in Lam population and 943 from 693 kg ha-1 in Omoda population. Significant improvement in rust resistance was achieved in the two populations, with a net genetic gain of -55 and -71% in Lam and Omoda populations, respectively. Rust severity reduced from 30 to 14% in Lam population and from 57 to 17% in Omoda population. Net positive genetic gains of 68 and 8% were also achieved for 1000-grain weight in Lam and Omoda, respectively. Traits with a net negative genetic gain in both populations were days to 50% flowering, days to 50% anthesis, days to 50% physiological maturity, flower-anthesis interval, plant height and leaf area.
Resumo:
Dans la pratique actuelle de la curiethérapie à bas débit, l'évaluation de la dose dans la prostate est régie par le protocole défini dans le groupe de travail 43 (TG-43) de l'American Association of Physicists in Medicine. Ce groupe de travail suppose un patient homogène à base d'eau de même densité et néglige les changements dans l'atténuation des photons par les sources de curiethérapie. En considérant ces simplifications, les calculs de dose se font facilement à l'aide d'une équation, indiquée dans le protocole. Bien que ce groupe de travail ait contribué à l'uniformisation des traitements en curiethérapie entre les hôpitaux, il ne décrit pas adéquatement la distribution réelle de la dose dans le patient. La publication actuelle du TG-186 donne des recommandations pour étudier des distributions de dose plus réalistes. Le but de ce mémoire est d'appliquer ces recommandations à partir du TG-186 pour obtenir une description plus réaliste de la dose dans la prostate. Pour ce faire, deux ensembles d'images du patient sont acquis simultanément avec un tomodensitomètre à double énergie (DECT). Les artéfacts métalliques présents dans ces images, causés par les sources d’iode, sont corrigés à l'aide d’un algorithme de réduction d'artefacts métalliques pour DECT qui a été développé dans ce travail. Ensuite, une étude Monte Carlo peut être effectuée correctement lorsque l'image est segmentée selon les différents tissus humains. Cette segmentation est effectuée en évaluant le numéro atomique effectif et la densité électronique de chaque voxel, par étalonnage stoechiométrique propre au DECT, et en y associant le tissu ayant des paramètres physiques similaires. Les résultats montrent des différences dans la distribution de la dose lorsqu'on compare la dose du protocole TG-43 avec celle retrouvée avec les recommandations du TG-186.
Resumo:
Cette étude a été réalisée dans le cadre de la création de la Mention Ville et Environnements urbains, labellisée par le Laboratoire d’Excellence Intelligences des Mondes Urbains, conduite par Mathilde Girault (doctorante, UMR Triangle, LabEx IMU) et encadrée par Guillaume Faburel (professeur, UMR Triangle et responsable de l’Axe Etudes urbaines, LabEx IMU et coordinateur de l’Atelier 4 Formations et expérimentations pédagogiques).S’appuyant sur 25 entretiens qualitatifs auprès de praticiens de la région urbaine Lyon-Saint-Etienne et à l’échelle nationale, sur une analyse des référentiels métiers existants et un état de la littérature scientifique sur l’évolution des métiers de l’urbain, cette étude a :- participé à la constitution d’un réseau de praticiens impliqués dans la conception et animation de la Mention (Comité de perfectionnement) ;- dessiné les grands traits de l’évolution des cadres d’action collective, soit une coopération en essor dans la construction d’une vision politique et territoriale de l’urbain (tout particulièrement liée à une prise en responsabilité habitante), et un renouvellement du regard porté à l’espace (décentré du processus métropolitain) ;- fait émerger les attentes des praticiens en termes de formation, orientées vers une interdisciplinarité et intercognitivité pensées comme favorables à une réflexivité et une hybridité des savoirs (situés, vernaculaires, scientifiques…) ;- soulevé une recomposition des savoirs de l’urbain autour de l’individualité des praticiens, de la recherche (universitaire) et de l’environnement ; - point l’émergence de nouveaux métiers aux savoirs construits autour du paradigme de la complexité et de l’incertitude, aux pratiques relevant de la médiation, coopération et improvisation, ainsi qu’aux statuts flous et / ou hybrides revendiqués comme tels. Cette étude a ainsi permis de relever une acception différenciée par certains praticiens de la professionnalisation. Alors qu’elle est historiquement conçue comme la reconnaissance par un tiers – officialisée par une certification, un titre, etc. - d’une capacité à réaliser une fonction définie, la professionnalisation est pensée ici comme une construction in-dividuée (réflexive et singulière) de ses compétences en adéquation avec son métier et son évolutivité, par ses choix de formation (initiale et continue) et d’orientation professionnelle, les activités exercées, les lectures personnelles, les engagements associatifs et convictions… Cela influe sur le contenu des formations, leurs modalités pédagogiques et formations continues proposées.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.
Resumo:
La compréhension des interrelations entre la microstructure et les processus électroniques dans les polymères semi-conducteurs est d’une importance primordiale pour leur utilisation dans des hétérostructures volumiques. Dans cette thèse de doctorat, deux systémes diffèrents sont étudiés ; chacun de ces systèmes représente une approche diffèrente pour optimiser les matériaux en termes de leur microstructure et de leur capacité à se mettre en ordre au niveau moléculaire. Dans le premier système, j’ai effectué une analyse complète des principes de fonctionnement d’une cellule photovoltaïque hybride à base des nanocristaux d’oxyde de zinc (ZnO) et du poly (3-hexylthiophène) (P3HT) par absorption photoinduite en régime quasi-stationnaire (PIA) et la spectroscopie PIA en pompage modulé dépendant de la fréquence. L’interface entre le donneur (le polymère P3HT) et l’accepteur (les nanoparticules de ZnO), où la génération de charges se produit, joue un rôle important dans la performance des cellules photovoltaïques hybrides. Pour améliorer le mécanisme de génération de charges du P3H: ZnO, il est indispensable de modifier l’interface entre ses constituants. Nous avons démontré que la modification d’interface moléculaire avec cis-bis (4, 40 - dicarboxy-2, 20bipyridine) ruthénium (II) (N3-dye) et a-Sexithiophen-2 yl-phosphonique (6TP) a améliorée le photocourant et la performance dans les cellules P3HT: ZnO. Le 6TP et le N3 s’attachent à l’interface du ZnO, en augmentant ainsi l’aire effective de la surface donneur :accepteur, ce qui contribue à une séparation de charge accrue. De plus, le 6TP et le N3 réduisent la densité de pièges dans le ZnO, ce qui réduit le taux de recombinaison des paires de charges. Dans la deuxième partie, jai introduit une matrice hôte polymérique de polystyréne à masse molaire ulra-élevée, qui se comporte comme un solide pour piéger et protéger une solution de poly [2-méthoxy, 5- (2´-éthyl-hexoxy) -1,4-phénylènevinylène- PPV] (MEHPPV) pour utilisation dans des dispositifs optoèlectroniques quantiques. Des travaux antérieurs ont montré que MEH-PPV en solution subit une transition de conformation, d’une conformation enroulé à haute température (phase bleue) à une conformation de chaîne étendue à basse température (phase rouge). La conformation de la chaîne étendue de la solution MEH-PPV favorise les caractéristiques nécessaires à l’amélioration des dispositifs optoélectroniques quantiques, mais la solution ne peut pas être incorporées dans le dispositif. J’ai démontré que la caractéristique de la phase rouge du MEH-PPV en solution se maintient dans une matrice hôte polymérique de polystyrène transformé de masse molaire très élevée, qui se comporte comme un solide (gel de MEH-PPV/UHMW PS), par le biais de la spectroscopie de photoluminescence (PL) dépendant de la température (de 290K à 80 K). La phase rouge du gel MEH-PPV/UHMW PS se manifeste par des largeurs de raie étroites et une intensité augmentée de la transition 0-0 de la progression vibronique dans le spectre de PL ainsi qu’un petit décalage de Stokes entre la PL et le spectre d’absorption à basse température. Ces approches démontrent que la manipulation de la microstructure et des propriétés électroniques des polymères semi-conducteurs ont un impact direct sur la performance de dispositifs pour leurs développements technologiques continus.
Resumo:
La Sclérose Latérale Amyotrophique (SLA) est une maladie neurodégénérative qui affecte les neurones moteurs. 10% des cas sont des cas familiaux et l’étude de ces familles a mené à la découverte de plusieurs gènes pouvant causer la SLA, incluant SOD1, TARDBP et FUS. L’expansion de la répétition GGGGCC dans le gène C9orf72 est, à ce jour, la cause la plus connue de SLA. L’impact de cette expansion est encore méconnu et il reste à déterminer si la toxicité est causée par un gain de fonction, une perte de fonction ou les deux. Plusieurs gènes impliqués dans la SLA sont conservés entre le nématode Caenorhabditis elegans et l’humain. C. elegans est un vers transparent fréquemment utilisé pour des études anatomiques, comportementales et génétiques. Il possède une lignée cellulaire invariable qui inclue 302 neurones. Aussi, les mécanismes de réponse au stress ainsi que les mécanismes de vieillissement sont très bien conservés entre ce nématode et l’humain. Donc, notre groupe, et plusieurs autres, ont utilisé C. elegans pour étudier plusieurs aspects de la SLA. Pour mieux comprendre la toxicité causée par l’expansion GGGGCC de C9orf72, nous avons développé deux modèles de vers pour étudier l’impact d’une perte de fonction ainsi que d’un gain de toxicité de l’ARN. Pour voir les conséquences d’une perte de fonction, nous avons étudié l’orthologue de C9orf72 dans C. elegans, alfa-1 (ALS/FTD associated gene homolog). Les vers mutants alfa-1(ok3062) développent des problèmes moteurs causant une paralysie et une dégénérescence spécifique des neurones moteurs GABAergiques. De plus, les mutants sont sensibles au stress osmotique qui provoque une dégénérescence. D’autre part, l’expression de la séquence d’ARN contenant une répétition pathogénique GGGGCC cause aussi des problèmes moteurs et de la dégénérescence affectant les neurones moteurs. Nos résultats suggèrent donc qu’un gain de toxicité de l’ARN ainsi qu’une perte de fonction de C9orf72 sont donc toxiques pour les neurones. Puisque le mouvement du vers peut être rapidement évalué en cultivant les vers dans un milieu liquide, nous avons développé un criblage de molécules pouvant affecter le mouvement des vers mutants alfa-1 en culture liquide. Plus de 4 000 composés ont été évalués et 80 ameliore la mobilité des vers alfa-1. Onze molécules ont aussi été testées dans les vers exprimant l’expansion GGGGCC et huit diminuent aussi le phénotype moteur de ces vers. Finalement, des huit molécules qui diminent la toxicité causée par la perte de fonction de C9orf72 et la toxicité de l’ARN, deux restaurent aussi l’expression anormale de plusieurs transcrits d’ARN observée dans des cellules dérivées de patient C9orf72. Avec ce projet, nous voulons identifier des molécules pouvant affecter tous les modes de toxicité de C9orf72 et possiblement ouvrir de nouvelles avenues thérapeutiques
Resumo:
L'hypothyroïdie congénitale par dysgénésie thyroïdienne (HCDT, ectopie dans plus de 80 %) a une prévalence de 1 cas sur 4000 naissances vivantes. L’HCDT est la conséquence d'une défaillance de la thyroïde embryonnaire à se différencier, à se maintenir ou à migrer vers sa localisation anatomique (partie antérieure du cou), qui aboutit à une absence totale de la thyroïde (athyréose) ou à une ectopie thyroïdienne (linguale ou sublinguale). Les HCDT sont principalement non-syndromiques (soit 98% des cas sont non-familiale), ont un taux de discordance de 92% chez les jumeaux monozygotes, et ont une prédominance féminine et ethnique (i.e., Caucasienne). La majorité des cas d’HCDT n’a pas de cause connue, mais est associée à un déficit sévère en hormones thyroïdiennes (hypothyroïdie). Des mutations germinales dans les facteurs de transcription liés à la thyroïde (NKX2.1, FOXE1, PAX8, NKX2.5) ont été identifiées dans seulement 3% des patients atteints d’HCDT sporadiques et l’analyse de liaisons exclue ces gènes dans les rares familles multiplex avec HCDT. Nous supposons que le manque de transmission familiale claire d’HCDT peut résulter de la nécessité d’au moins deux « hits » génétiques différents dans des gènes importants pour le développement thyroïdien. Pour répondre au mieux nos questions de recherche, nous avons utilisé deux approches différentes: 1) une approche gène candidat, FOXE1, seul gène impliqué dans l’ectopie dans le modèle murin et 2) une approche en utilisant les techniques de séquençage de nouvelle génération (NGS) afin de trouver des variants génétiques pouvant expliquer cette pathologie au sein d’une cohorte de patients avec HCDT. Pour la première approche, une étude cas-contrôles a été réalisée sur le promoteur de FOXE1. Il a récemment été découvert qu’une région du promoteur de FOXE1 est différentiellement méthylée au niveau de deux dinucléotides CpG consécutifs, définissant une zone cruciale de contrôle de l’expression de FOXE1. L’analyse d’association basée sur les haplotypes a révélé qu’un haplotype (Hap1: ACCCCCCdel1C) est associé avec le HCDT chez les Caucasiens (p = 5x10-03). Une réduction significative de l’activité luciférase est observée pour Hap1 (réduction de 68%, p<0.001) comparé au promoteur WT de FOXE1. Une réduction de 50% de l’expression de FOXE1 dans une lignée de cellules thyroïdienne humaine est suffisante pour réduire significativement la migration cellulaire (réduction de 55%, p<0.05). Un autre haplotype (Hap2: ACCCCCCC) est observé moins fréquemment chez les Afro-Américain comparés aux Caucasiens (p = 1.7x10-03) et Hap2 diminue l’activité luciférase (réduction de 26%, p<0.001). Deux haplotypes distincts sont trouvés fréquemment dans les contrôles Africains (Black-African descents). Le premier haplotype (Hap3: GTCCCAAC) est fréquent (30.2%) chez les contrôles Afro-Américains comparés aux contrôles Caucasiens (6.3%; p = 2.59 x 10-9) tandis que le second haplotype (Hap4: GTCCGCAC) est trouvé exclusivement chez les contrôles Afro-Américains (9.4%) et est absent chez les contrôles Caucasiens (P = 2.59 x 10-6). Pour la deuxième approche, le séquençage de l’exome de l’ADN leucocytaire entre les jumeaux MZ discordants n’a révélé aucune différence. D'où l'intérêt du projet de séquençage de l’ADN et l’ARN de thyroïdes ectopiques et orthotopiques dans lesquelles de l'expression monoallélique aléatoire dans a été observée, ce qui pourrait expliquer comment une mutation monoallélique peut avoir des conséquences pathogéniques. Finalement, le séquençage de l’exome d’une cohorte de 36 cas atteints d’HCDT a permis d’identifier de nouveaux variants probablement pathogéniques dans les gènes récurrents RYR3, SSPO, IKBKE et TNXB. Ces quatre gènes sont impliqués dans l’adhésion focale (jouant un rôle dans la migration cellulaire), suggérant un rôle direct dans les défauts de migration de la thyroïde. Les essais de migration montrent une forte diminution (au moins 60% à 5h) de la migration des cellules thyroïdiennes infectées par shRNA comparés au shCtrl dans 2 de ces gènes. Des zebrafish KO (-/- et +/-) pour ces nouveaux gènes seront réalisés afin d’évaluer leur impact sur l’embryologie de la thyroïde.
Resumo:
Le développement de la multirésistance chez Escherichia coli est un problème important en médecine animale et humaine. En outre, l’émergence et la diffusion des déterminants de résistance aux céphalosporines à larges spectres de troisième génération (ESCs) parmi les isolats, incluant des céphalosporines essentielles en médecine humaine (ex. ceftriaxone et ceftiofur), est un problème majeur de santé publique. Cette thèse visait trois objectifs. D’abord étudier la dynamique de la résistance aux antimicrobiens (AMR) ainsi que la virulence et les profils génétiques de la AMR des E. coli isolées de porcs recevant une nourriture post-sevrage supplémentée avec de la chlortétracycline et de la pénicilline G, et, accessoirement, évaluer les effets d'additifs alimentaires sur cette dynamique en prenant pour exemple d'étude un minéral argileux, la clinoptilolite, étant donné son possible lien avec le gène blaCMY-2 qui confère la résistance au ceftiofur. L'objectif suivant était d'investiguer les mécanismes menant à une augmentation de la prévalence du gène blaCMY-2 chez les porcs qui reçoivent de la nourriture médicamentée et qui n'ont pas été exposés au ceftiofur Ici encore,nous avons examiné les effets d’un supplément alimentaire avec un minéral argileux sur ce phénomène. Enfin, notre dernier objectif était d’étudier, dans le temps, les génotypes des isolats cliniques d'E. coli résistant au ceftiofur, isolés de porcs malades au Québec à partir du moment où la résistance au ceftiofur a été rapportée, soit de 1997 jusqu'à 2012. Dans l'étude initiale, la prévalence de la résistance à 10 agents antimicrobiens, incluant le ceftiofur, s’accroît avec le temps chez les E.coli isolées de porcelets sevrés. Une augmentation tardive de la fréquence du gène blaCMY-2, encodant pour la résistance au ceftiofur, et la présence des gènes de virulence iucD et tsh a été observée chez les isolats. La nourriture supplémentée avec de la clinoptilolite a été associée à une augmentation rapide mais, par la suite, à une diminution de la fréquence des gènes blaCMY-2 dans les isolats. En parallèle, une augmentation tardive dans la fréquence des gènes blaCMY-2 et des gènes de virulence iucD et tsh a été observée dans les isolats des porcs contrôles, étant significativement plus élevé que dans les porcs ayant reçu l'additif au jour 28. La diversité, au sein des E. coli positives pour blaCMY-2 , a été observée au regard des profils AMR. Certaines lignées clonales d'E.coli sont devenues prédominantes avec le temps. La lignée clonale du phylotype A prédominait dans le groupe supplémenté, alors que les lignées clonales du phylotype B1, qui possèdent souvent le gène de virulence iucD associé aux ExPEC, prédominaient dans le groupe contrôle. Les plasmides d'incompatibilité (Inc) des groupes, I1, A/C, et ColE, porteurs de blaCMY-2, ont été observés dans les transformants. Parmi les souches cliniques d'E.coli ESC-résistantes, isolées de porcs malades au Québec de 1997 à 2012, blaCMY-2 était le gène codant pour une β-lactamase le plus fréquemment détecté; suivi par blaTEM et blaCTX-M,. De plus, les analyses clonales montrent une grande diversité génétique. Par contre, des isolats d'E. coli avec des profils PFGE identiques ont été retrouvés dans de multiples fermes la même année mais aussi dans des années différentes. La résistance à la gentamicine, kanamycine, chloramphenicol, et la fréquence de blaTEM et de IncA/C diminuent significativement au cour de la période étudiée, alors que la fréquence de IncI1 et de la multirésistance à sept catégories d'agents antimicrobiens augmente significativement avec le temps. L'émergence d'isolats d'E. coli positifs pour blaCTX-M, une β-lactamase à large spectre et produisant des ESBL, a été observée en 2011 et 2012 à partir de lignées clonales distinctes et chez de nombreuses fermes. Ces résultats, mis ensemble, apportent des précisions sur la dissémination de la résistance au ceftiofur dans les E. coli isolées de porcs. Au sein des échantillons prélevés chez les porcs sevrés recevant l'alimentation médicamentée sur une ferme, et pour laquelle une augmentation de la résistance au ceftiofur a été observée, les données révèlent que les souches d'E. coli positives pour blaCMY-2 et résistantes aux ESCs appartenaient à plusieurs lignées clonales différentes arborant divers profils AMR. Le gène blaCMY-2 se répand à la fois horizontalement et clonalement chez ces E. coli. L'ajout de clinoptilotite à la nourriture et le temps après le sevrage influencent la clonalité et la prévalence du gène blaCMY-2 dans les E. coli. Durant les 16 années d'étude, plusieurs lignées clonales différentes ont été observées parmi les souches d'E. coli résistantes au ceftiofur isolées de porc malades de fermes québécoises, bien qu’aucune lignée n'était persistante ou prédominante pendant l'étude. Les résultats suggèrent aussi que le gène blaCMY-2 s'est répandu à la fois horizontalement et clonalement au sein des fermes. De plus, blaCMY-2 est le gène majeur des β-lactamases chez ces isolats. À partir de 2011, nous rapportons l'émergence du gène blaCTX-M dans des lignées génétiques distinctes.
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.
Resumo:
La nouvelle de Kafka, une page écrite le 23 octobre 1917, est une réécriture du passage de l’Odyssée d’Homère1 dans lequel Circé avertit Ulysse qu’il va passer au large de l’île des Sirènes. Ces êtres hybrides, mifemmes mioiseaux, attirent irrésistiblement les marins par leur chant et provoquent leur naufrage ce dont témoigne le rivage couvert d’ossements. Circé indique aussi à Ulysse le moyen d’échapper à ce sort funeste: il devra boucher les oreilles de ses compagnons avec de la cire; lui seul, solidement attaché au mât, pourra jouir de la voix des Sirènes.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.