34 resultados para Topologie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phylogénie moléculaire fournit un outil complémentaire aux études paléontologiques et géologiques en permettant la construction des relations phylogénétiques entre espèces ainsi que l’estimation du temps de leur divergence. Cependant lorsqu’un arbre phylogénétique est inféré, les chercheurs se focalisent surtout sur la topologie, c'est-à-dire l’ordre de branchement relatif des différents nœuds. Les longueurs des branches de cette phylogénie sont souvent considérées comme des sous-produits, des paramètres de nuisances apportant peu d’information. Elles constituent cependant l’information primaire pour réaliser des datations moléculaires. Or la saturation, la présence de substitutions multiples à une même position, est un artefact qui conduit à une sous-estimation systématique des longueurs de branche. Nous avons décidé d’estimer l‘influence de la saturation et son impact sur l’estimation de l’âge de divergence. Nous avons choisi d’étudier le génome mitochondrial des mammifères qui est supposé avoir un niveau élevé de saturation et qui est disponible pour de nombreuses espèces. De plus, les relations phylogénétiques des mammifères sont connues, ce qui nous a permis de fixer la topologie, contrôlant ainsi un des paramètres influant la longueur des branches. Nous avons utilisé principalement deux méthodes pour améliorer la détection des substitutions multiples : (i) l’augmentation du nombre d’espèces afin de briser les plus longues branches de l’arbre et (ii) des modèles d’évolution des séquences plus ou moins réalistes. Les résultats montrèrent que la sous-estimation des longueurs de branche était très importante (jusqu'à un facteur de 3) et que l’utilisation d'un grand nombre d’espèces est un facteur qui influence beaucoup plus la détection de substitutions multiples que l’amélioration des modèles d’évolutions de séquences. Cela suggère que même les modèles d’évolution les plus complexes disponibles actuellement, (exemple: modèle CAT+Covarion, qui prend en compte l’hétérogénéité des processus de substitution entre positions et des vitesses d’évolution au cours du temps) sont encore loin de capter toute la complexité des processus biologiques. Malgré l’importance de la sous-estimation des longueurs de branche, l’impact sur les datations est apparu être relativement faible, car la sous-estimation est plus ou moins homothétique. Cela est particulièrement vrai pour les modèles d’évolution. Cependant, comme les substitutions multiples sont le plus efficacement détectées en brisant les branches en fragments les plus courts possibles via l’ajout d’espèces, se pose le problème du biais dans l’échantillonnage taxonomique, biais dû à l‘extinction pendant l’histoire de la vie sur terre. Comme ce biais entraine une sous-estimation non-homothétique, nous considérons qu’il est indispensable d’améliorer les modèles d’évolution des séquences et proposons que le protocole élaboré dans ce travail permettra d’évaluer leur efficacité vis-à-vis de la saturation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eurybia et ses proches parents Oreostemma, Herrickia et Triniteurybia sont appelés le grade des eurybioïdes. Comprenant 31 espèces vivaces, ce grade appartient au clade Nord-américain de la tribu des Astereae. Les analyses moléculaires antérieures ont montré que ce groupe est à la fois paraphylétique aux Machaerantherinae et un groupe frère aux Symphyotrichinae. Les relations infragénériques partiellement résolues et faiblement supportées empêchent d’approfondir l'histoire évolutive des groupes et ce, particulièrement dans le genre principal Eurybia. Le but de cette étude est de reconstruire les relations phylogénétiques au sein des eurybioïdes autant par l'inclusion de toutes les espèces du grade que par l’utilisation de différents types de régions et de méthodes d'inférence phylogénétique. Cette étude présente des phylogénies basées sur l'ADN ribosomal nucléaire (ITS, ETS), de l'ADN chloroplastique (trnL-F, trnS-G, trnC-ycf6) et d’un locus du génome nucléaire à faible nombre de copie (CNGC4). Les données sont analysées séparément et combinées à l’aide des approches de parcimonie, bayesienne et de maximum de vraisemblance. Les données ADNnr n’ont pas permis de résoudre les relations entre les espèces polyploïdes des Eurybia. Les analyses combinées avec des loci d’ADNnr et d’ADNnr+cp ont donc été limitées à des diploïdes. Les analyses combinées ont montré une meilleure résolution et un meilleur support que les analyses séparées. La topologie de l’ADNnr+cp était la mieux résolue et supportée. La relation phylogénétique de genres appartenant au grade des eurybioïdes est comme suit : Oreostemma (Herrickia s.str. (Herrickia kingii (Eurybia (Triniteurybia - Machaerantherinae)))). Basé sur la topologie combinée de l’ADNnr+cp, nous avons effectué des analyses de biogéographie à l’aide des logiciels DIVA et LaGrange. Ces analyses ont révélé une première radiation des eurybioïdes dans l’Ouest de l’Amérique du Nord, suivi de deux migrations indépendantes dans l’Est de l’Amérique du Nord chez les Eurybia. Due au relatif manque de variabilité de l’ADNnr, l’ADNcp et CNGC4, où le triage de lignés incomplet était dominant, l'origine du grade est interprétée comme récente, possiblement du Pliocène. La diversification du groupe a été probablement favorisée par les glaciations Pléistocènes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les R-loops générés durant la transcription sont impliqués dans de nombreuse fonctions incluant la réplication, la recombinaison et l’expression génique tant chez les procaryotes que chez les eucaryotes. Plusieurs études ont montré qu’un excès de supertours négatifs et des séquences riches en bases G induisent la formation de R-loops. Jusqu’à maintenant, nos résultats nous ont permis d’établir un lien direct entre les topoisomérases, le niveau de surenroulement et la formation de R-loops. Cependant, le rôle physiologique des R-loops est encore largement inconnu. Dans le premier article, une étude détaillée du double mutant topA rnhA a montré qu’une déplétion de RNase HI induit une réponse cellulaire qui empêche la gyrase d’introduire des supertours. Il s’agit ici, de la plus forte évidence supportant les rôles majeurs de la RNase HI dans la régulation du surenroulement de l’ADN. Nos résultats ont également montré que les R-loops pouvaient inhiber l’expression génique. Cependant, les mécanismes exacts sont encore mal connus. L’accumulation d’ARNs courts au détriment d’ARNs pleine longueur peut être causée soit par des blocages durant l’élongation de la transcription soit par la dégradation des ARNs pleine longueur. Dans le deuxième article, nous montrons que l’hypersurenroulement négatif peut mener à la formation de R-loops non-spécifiques (indépendants de la séquence nucléotidique). La présence de ces derniers, engendre une dégradation massive des ARNs et ultimement à la formation de protéines tronquées. En conclusion, ces études montrent l’évidence d’un lien étroit entre la RNase HI, la formation des R-loops, la topologie de l’ADN et l’expression génique. De plus, elles attestent de la présence d’un nouvel inhibiteur de gyrase ou d’un mécanisme encore inconnu capable de réguler son activité. Cette surprenante découverte est élémentaire sachant que de nombreux antibiotiques ciblent la gyrase. Finalement, ces études pourront servir également de base à des recherches similaires chez les cellules eucaryotes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une première partie de ce mémoire portera sur l’analyse des états fondamentaux ma- gnétiques de deux composés isolants et magnétiquement frustrés SrDy2O4 et SrHo2O4. Une étude de la chaleur spécifique à basse température sous l’effet de champs magné- tiques de ces échantillons a été menée afin de détecter la présence de transitions de phases. L’utilisation d’un composé isotructurel non magnétique, le SrLu2O4, a permis l’isolement de la composante magnétique à la chaleur spécifique. Les comportements observés sont non conformes avec les transitions magnétiques conventionnelles. De plus, le calcul de l’entropie magnétique ne montre qu’un recouvrement partiel de l’entropie associée à un système d’ions magnétiques. En second lieu, une analyse des oscillations quantiques de Haas-van Alphen a été effectuée dans le LuCoIn5, composé apparenté au supraconducteur à fermions lourds CeCoIn5. Les résultats obtenus montrent une topologie de la surface de Fermi très différente comparativement aux CeCoIn5 et LaCoIn5, ayant un comportement beaucoup plus tridimensionnel sans les cylindres caractéristiques présents chez les autres membres de cette famille. Finalement, le montage d’un système de détection PIXE a permis l’analyse nucléaire d’échantillons afin de déterminer la concentration de chacun des éléments les constituant. L’analyse a été effectuée sur une série d’échantillons YbxCe1−xCoIn5 dont le changement de concentration a des effets importants sur les propriétés du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que les champignons soient régulièrement utilisés comme modèle d'étude des systèmes eucaryotes, leurs relations phylogénétiques soulèvent encore des questions controversées. Parmi celles-ci, la classification des zygomycètes reste inconsistante. Ils sont potentiellement paraphylétiques, i.e. regroupent de lignées fongiques non directement affiliées. La position phylogénétique du genre Schizosaccharomyces est aussi controversée: appartient-il aux Taphrinomycotina (précédemment connus comme archiascomycetes) comme prédit par l'analyse de gènes nucléaires, ou est-il plutôt relié aux Saccharomycotina (levures bourgeonnantes) tel que le suggère la phylogénie mitochondriale? Une autre question concerne la position phylogénétique des nucléariides, un groupe d'eucaryotes amiboïdes que l'on suppose étroitement relié aux champignons. Des analyses multi-gènes réalisées antérieurement n'ont pu conclure, étant donné le choix d'un nombre réduit de taxons et l'utilisation de six gènes nucléaires seulement. Nous avons abordé ces questions par le biais d'inférences phylogénétiques et tests statistiques appliqués à des assemblages de données phylogénomiques nucléaires et mitochondriales. D'après nos résultats, les zygomycètes sont paraphylétiques (Chapitre 2) bien que le signal phylogénétique issu du jeu de données mitochondriales disponibles est insuffisant pour résoudre l'ordre de cet embranchement avec une confiance statistique significative. Dans le Chapitre 3, nous montrons à l'aide d'un jeu de données nucléaires important (plus de cent protéines) et avec supports statistiques concluants, que le genre Schizosaccharomyces appartient aux Taphrinomycotina. De plus, nous démontrons que le regroupement conflictuel des Schizosaccharomyces avec les Saccharomycotina, venant des données mitochondriales, est le résultat d'un type d'erreur phylogénétique connu: l'attraction des longues branches (ALB), un artéfact menant au regroupement d'espèces dont le taux d'évolution rapide n'est pas représentatif de leur véritable position dans l'arbre phylogénétique. Dans le Chapitre 4, en utilisant encore un important jeu de données nucléaires, nous démontrons avec support statistique significatif que les nucleariides constituent le groupe lié de plus près aux champignons. Nous confirmons aussi la paraphylie des zygomycètes traditionnels tel que suggéré précédemment, avec support statistique significatif, bien que ne pouvant placer tous les membres du groupe avec confiance. Nos résultats remettent en cause des aspects d'une récente reclassification taxonomique des zygomycètes et de leurs voisins, les chytridiomycètes. Contrer ou minimiser les artéfacts phylogénétiques telle l'attraction des longues branches (ALB) constitue une question récurrente majeure. Dans ce sens, nous avons développé une nouvelle méthode (Chapitre 5) qui identifie et élimine dans une séquence les sites présentant une grande variation du taux d'évolution (sites fortement hétérotaches - sites HH); ces sites sont connus comme contribuant significativement au phénomène d'ALB. Notre méthode est basée sur un test de rapport de vraisemblance (likelihood ratio test, LRT). Deux jeux de données publiés précédemment sont utilisés pour démontrer que le retrait graduel des sites HH chez les espèces à évolution accélérée (sensibles à l'ALB) augmente significativement le support pour la topologie « vraie » attendue, et ce, de façon plus efficace comparée à d'autres méthodes publiées de retrait de sites de séquences. Néanmoins, et de façon générale, la manipulation de données préalable à l'analyse est loin d’être idéale. Les développements futurs devront viser l'intégration de l'identification et la pondération des sites HH au processus d'inférence phylogénétique lui-même.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Soit (M, ω) une variété symplectique. Nous construisons une version de l’éclatement et de la contraction symplectique, que nous définissons relative à une sous-variété lagrangienne L ⊂ M. En outre, si M admet une involution anti-symplectique ϕ, et que nous éclatons une configuration suffisament symmetrique des plongements de boules, nous démontrons qu’il existe aussi une involution anti-symplectique sur l’éclatement ~M. Nous dérivons ensuite une condition homologique pour les surfaces lagrangiennes réeles L = Fix(ϕ), qui détermine quand la topologie de L change losqu’on contracte une courbe exceptionnelle C dans M. Finalement, on utilise ces constructions afin d’étudier le packing relatif dans (ℂP²,ℝP²).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Soit (M,ω) un variété symplectique fermée et connexe.On considère des sous-variétés lagrangiennes α : L → (M,ω). Si α est monotone, c.- à-d. s’il existe η > 0 tel que ημ = ω, Paul Biran et Octav Conea ont défini une version relative de l’homologie quantique. Dans ce contexte ils ont déformé l’opérateur de bord du complexe de Morse ainsi que le produit d’intersection à l’aide de disques pseudo-holomorphes. On note (QH(L), ∗), l’homologie quantique de L munie du produit quantique. Le principal objectif de cette dissertation est de généraliser leur construction à un classe plus large d’espaces. Plus précisément on considère soit des sous-variétés presque monotone, c.-à-d. α est C1-proche d’un plongement lagrangian monotone ; soit les fibres toriques de variétés toriques Fano. Dans ces cas non nécessairement monotones, QH(L) va dépendre de certains choix, mais cela sera irrelevant pour les applications présentées ici. Dans le cas presque monotone, on s’intéresse principalement à des questions de déplaçabilité, d’uniréglage et d’estimation d’énergie de difféomorphismes hamiltoniens. Enfin nous terminons par une application combinant les deux approches, concernant la dynamique d’un hamiltonien déplaçant toutes les fibres toriques non-monotones dans CPn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse présente une analyse conceptuelle de l'évolution du concept d'espace topologique. En particulier, elle se concentre sur la transition des espaces topologiques hérités de Hausdorff aux topos de Grothendieck. Il en ressort que, par rapport aux espaces topologiques traditionnels, les topos transforment radicalement la conceptualisation topologique de l'espace. Alors qu'un espace topologique est un ensemble de points muni d'une structure induite par certains sous-ensembles appelés ouverts, un topos est plutôt une catégorie satisfaisant certaines propriétés d'exactitude. L'aspect le plus important de cette transformation tient à un renversement de la relation dialectique unissant un espace à ses points. Un espace topologique est entièrement déterminé par ses points, ceux-ci étant compris comme des unités indivisibles et sans structure. L'identité de l'espace est donc celle que lui insufflent ses points. À l'opposé, les points et les ouverts d'un topos sont déterminés par la structure de celui-ci. Qui plus est, la nature des points change: ils ne sont plus premiers et indivisibles. En effet, les points d'un topos disposent eux-mêmes d'une structure. L'analyse met également en évidence que le concept d'espace topologique évolua selon une dynamique de rupture et de continuité. Entre 1945 et 1957, la topologie algébrique et, dans une certaine mesure, la géométrie algébrique furent l'objet de changements fondamentaux. Les livres Foundations of Algebraic Topology de Eilenberg et Steenrod et Homological Algebra de Cartan et Eilenberg de même que la théorie des faisceaux modifièrent profondément l'étude des espaces topologiques. En contrepartie, ces ruptures ne furent pas assez profondes pour altérer la conceptualisation topologique de l'espace elle-même. Ces ruptures doivent donc être considérées comme des microfractures dans la perspective de l'évolution du concept d'espace topologique. La rupture définitive ne survint qu'au début des années 1960 avec l'avènement des topos dans le cadre de la vaste refonte de la géométrie algébrique entreprise par Grothendieck. La clé fut l'utilisation novatrice que fit Grothendieck de la théorie des catégories. Alors que ses prédécesseurs n'y voyaient qu'un langage utile pour exprimer certaines idées mathématiques, Grothendieck l'emploie comme un outil de clarification conceptuelle. Ce faisant, il se trouve à mettre de l'avant une approche axiomatico-catégorielle des mathématiques. Or, cette rupture était tributaire des innovations associées à Foundations of Algebraic Topology, Homological Algebra et la théorie des faisceaux. La théorie des catégories permit à Grothendieck d'exploiter le plein potentiel des idées introduites par ces ruptures partielles. D'un point de vue épistémologique, la transition des espaces topologiques aux topos doit alors être vue comme s'inscrivant dans un changement de position normative en mathématiques, soit celui des mathématiques modernes vers les mathématiques contemporaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rapide progression des technologies sans fil au cours de ces dernières années a vu naître de nouveaux systèmes de communication dont les réseaux véhiculaires. Ces réseaux visent à intégrer les nouvelles technologies de l’information et de la communication dans le domaine automobile en vue d’améliorer la sécurité et le confort sur le réseau routier. Offrir un accès Internet aux véhicules et à leurs occupants peut sans doute aider à anticiper certains dangers sur la route tout en rendant plus agréables les déplacements à bord des véhicules. Le déploiement de ce service nécessite que des messages soient échangés entre les véhicules. Le routage constitue un élément crucial dans un réseau, car définissant la façon dont les différentes entités échangent des messages. Le routage dans les VANETS constitue un grand défi car ces derniers sont caractérisés par une forte mobilité entraînant une topologie très dynamique. Des protocoles ont été proposés pour étendre Internet aux réseaux véhiculaires. Toutefois, la plupart d’entre eux nécessitent un coût élevé de messages de contrôle pour l’établissement et le maintien des communications. Ceci a pour conséquence la saturation de la bande passante entrainant ainsi une baisse de performance du réseau. Nous proposons dans ce mémoire, un protocole de routage qui s’appuie sur des passerelles mobiles pour étendre Internet aux réseaux véhiculaires. Le protocole prend en compte la mobilité des véhicules et la charge du réseau pour l’établissement et le maintien des routes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mon projet de recherche avait pour but de caractériser le rôle de deux protéines, ArgR et PepA, qui agissent en tant que facteurs accessoires de la recombinaison au niveau de deux sites cer du plasmide ColE1 présent dans la bactérie Escherichia coli. Ces deux protéines, couplées aux deux recombinases à tyrosine XerC et XerD, permettent la catalyse de la recombinaison site spécifique au niveau de la séquence cer, convertissant les multimères instables de ColE1 en monomères stables. Cette étude a principalement porté sur la région C-terminale de la protéine ArgR. Cette région de la protéine ArgR possède une séquence en acides-aminés et une structure similaire à celle de la protéine AhrC de Bacillus subtilis. De plus, AhrC, le répresseur de l’arginine de cette bactérie, est capable de complémenter des Escherichia coli mutantes déficientes en ArgR. Les régions C-terminales de ces protéines, montrent une forte similarité. De précédents travaux dans notre laboratoire ont démontré que des mutants d’ArgR comprenant des mutations dans cette région, en particulier les mutants ArgR149, une version tronquée d’ArgR de 149 acides-aminés, et ArgR5aa, une version comprenant une insertion de cinq acides-aminés dans la partie C-terminale, perdaient la capacité de permettre la recombinaison au niveau de deux sites cer présents dans le plasmide pCS210. Malgré cette incapacité à promouvoir la réaction de recombinaison en cer, ces deux mutants étaient toujours capables de se lier spécifiquement à l’ADN et de réprimer une fusion argA :: lacZ. Dans ce travail, les versions mutantes et sauvages d’ArgR furent surexprimées en tant que protéines de fusion 6-histidine. Des analyses crosslinking ont montré que la version sauvage et ArgR5aa pouvaient former des hexamères in-vitro de manière efficace, alors qu’ArgR149 formait des multimères de plus faible poids moléculaire. Des formes tronquées d’ArgR qui comportaient 150 acides-aminés ou plus, étaient encore capables de permettre la recombinaison en cer. Les mutants par substitution ArgRL149A et ArgRL151A ont tous montré que les substitutions d’un seul acide-aminé au sein de cette région avaient peu d’effets sur la recombinaison en cer. Les expériences de crosslinking protéine-à-protéine ont montré que le type sauvage et les formes mutantes d’ArgR étaient capables d’interagir avec la protéine accessoire PepA, également impliquée dans la recombinaison en cer. Les expériences de recombinaison in-vitro utilisant la forme sauvage et les formes mutantes d’ArgR combinées avec les protéines PepA, XerC et XerD purifiées, ont montré que le mutant ArgR149 ne soutenait pas la recombinaison, mais que le mutant ArgR5aa permettait la formation d’une jonction d’Holliday. Des expériences de topologie ont montré que PepA était capable de protéger l’ADN de la topoisomérase 1, et d’empêcher ArgRWt de se lier à l’ADN. Les deux mutants ArgR149 et ArgR5aa protègent aussi l’ADN avec plus de surenroulements. Quand on ajoute PepA, les profils de migration montrent un problème de liaison des deux mutants avec PepA. D’autres expériences impliquant le triplet LEL (leucine-acide glutamique-leucine) et les acides-aminés alentour devraient être réalisés dans le but de connaitre l’existence d’un site de liaison potentiel pour PepA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La représentation d'une surface, son lissage et son utilisation pour l'identification, la comparaison, la classification, et l'étude des variations de volume, de courbure ou de topologie sont omniprésentes dans l'aire de la numérisation. Parmi les méthodes mathématiques, nous avons retenu les transformations difféomorphiques d'un pattern de référence. Il y a un grand intérêt théorique et numérique à approcher un difféomorphisme arbitraire par des difféomorphismes engendrés par des champs de vitesses. Sur le plan théorique la question est : "est-ce que le sous-groupe de difféomorphismes engendrés par des champs de vitesses est dense dans le groupe plus large de Micheletti pour la métrique de Courant ?" Malgré quelques progrès réalisés ici, cette question demeure ouverte. Les pistes empruntées ont alors convergé vers le sous-groupe de Azencott et de Trouvé et sa métrique dans le cadre de l'imagerie. Elle correspond à une notion de géodésique entre deux difféomorphismes dans leur sous-groupe. L'optimisation est utilisée pour obtenir un système d'équations état adjoint caractérisant la solution optimale du problème d'identification à partir des observations. Cette approche est adaptée à l'identification de surfaces obtenues par un numériseur tel que, par exemple, le scan d'un visage. Ce problème est beaucoup plus difficile que celui d'imagerie. On doit alors introduire un système de référence courbe et une surface à facettes pour les calculs. On donne la formulation du problème d'identification et du calcul du changement de volume par rapport à un scan de référence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.