951 resultados para Topological Strings


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse présente une analyse conceptuelle de l'évolution du concept d'espace topologique. En particulier, elle se concentre sur la transition des espaces topologiques hérités de Hausdorff aux topos de Grothendieck. Il en ressort que, par rapport aux espaces topologiques traditionnels, les topos transforment radicalement la conceptualisation topologique de l'espace. Alors qu'un espace topologique est un ensemble de points muni d'une structure induite par certains sous-ensembles appelés ouverts, un topos est plutôt une catégorie satisfaisant certaines propriétés d'exactitude. L'aspect le plus important de cette transformation tient à un renversement de la relation dialectique unissant un espace à ses points. Un espace topologique est entièrement déterminé par ses points, ceux-ci étant compris comme des unités indivisibles et sans structure. L'identité de l'espace est donc celle que lui insufflent ses points. À l'opposé, les points et les ouverts d'un topos sont déterminés par la structure de celui-ci. Qui plus est, la nature des points change: ils ne sont plus premiers et indivisibles. En effet, les points d'un topos disposent eux-mêmes d'une structure. L'analyse met également en évidence que le concept d'espace topologique évolua selon une dynamique de rupture et de continuité. Entre 1945 et 1957, la topologie algébrique et, dans une certaine mesure, la géométrie algébrique furent l'objet de changements fondamentaux. Les livres Foundations of Algebraic Topology de Eilenberg et Steenrod et Homological Algebra de Cartan et Eilenberg de même que la théorie des faisceaux modifièrent profondément l'étude des espaces topologiques. En contrepartie, ces ruptures ne furent pas assez profondes pour altérer la conceptualisation topologique de l'espace elle-même. Ces ruptures doivent donc être considérées comme des microfractures dans la perspective de l'évolution du concept d'espace topologique. La rupture définitive ne survint qu'au début des années 1960 avec l'avènement des topos dans le cadre de la vaste refonte de la géométrie algébrique entreprise par Grothendieck. La clé fut l'utilisation novatrice que fit Grothendieck de la théorie des catégories. Alors que ses prédécesseurs n'y voyaient qu'un langage utile pour exprimer certaines idées mathématiques, Grothendieck l'emploie comme un outil de clarification conceptuelle. Ce faisant, il se trouve à mettre de l'avant une approche axiomatico-catégorielle des mathématiques. Or, cette rupture était tributaire des innovations associées à Foundations of Algebraic Topology, Homological Algebra et la théorie des faisceaux. La théorie des catégories permit à Grothendieck d'exploiter le plein potentiel des idées introduites par ces ruptures partielles. D'un point de vue épistémologique, la transition des espaces topologiques aux topos doit alors être vue comme s'inscrivant dans un changement de position normative en mathématiques, soit celui des mathématiques modernes vers les mathématiques contemporaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous allons exposer dans ce mémoire divers résultats sur l’universalité en analyse complexe. Nous énoncerons d’abord des résultats généraux sur les séries universelles, puis sur un type d’universalité dû à Fournier et Nestoridis qui établit un lien nouveau entre l’universalité et la non-normalité d’une famille de fonctions. Par la suite, nous introduirons un type différent de séries universelles obtenues en réarrangeant les termes de séries arbitraires. Nous prouverons dans ce mémoire la généricité algébrique de ce type de séries universelles pour tout espace de Banach et la généricité topologique dans les espaces de dimension finie. Aussi, nous démontrerons que pour toute série universelle par réarrangement il existe un réarrangement de ses termes pour lequel cette série devient universelle au sens usuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail est consacré à l’étude de la coalescence de gouttelettes liquides à l’échelle du nanomètre. Nous nous sommes intéressés principalement à l’évolution du changement topologique des gouttelettes à partir de la rupture des surfaces au moment du contact initial jusqu’à la coalescence complète. Nous utilisons la dynamique moléculaire afin de simuler plusieurs types de gouttelettes soit en utilisant le potentiel empirique de type Stillinger-Weber pour des gouttelettes de silicium (l-Si) en 3 dimensions et le modèle Embedded Atom Method pour des gouttelettes de cuivre liquide (l-Cu) en 2d, quasi-2d (disques) et 3 dimensions. Qualitativement, toutes les simulations démontrent une coalescence similaire indépendamment de la dimension de calcul (2d à 3d), de la taille et de la température initiale des gouttelettes. La coalescence évolue par une déformation rapide des surfaces sans mixage important entre les atomes des deux gouttelettes initiales. De plus, nous étudions l’évolution du col de coalescence formé lors du contact initial entre les gouttelettes et, pour les systèmes en 3d, nous observons une transition claire d’un régime visqueux vers un régime inertiel du rayon de ce col, tel que suggéré par des modèles théoriques. Pour les gouttelettes de cuivre nous observons exactement le comportement des prédictions analytiques et confirmons que le premier régime suit un comportement visqueux sans aplatissement local des gouttelettes. La situation est différente pour les gouttelettes de l-Si où nous observons un effet plus grand, par rapport aux prédictions analytiques, du rayon et de la température initiale des gouttelettes sur l’évolution du col de coalescence. Nous suggérons que les paramètres décrivant l’évolution de la coalescence dépendent des propriétés des matériaux utilisés contrairement à la théorie universelle couramment utilisée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les difficultés croissantes de l’enseignement supérieur en matière d’accessibilité aux formations et de disponibilité de filières de qualité, dans les pays en voie de développement de l’Afrique de l’Ouest notamment, conjuguées avec le développement vertigineux des technologies de l’information et de la communication (TIC), suscitent un grand espoir de faire de la formation à distance une solution alternative crédible des formations présentielles (OCDE, 2006). Or, si la littérature s’accorde à reconnaitre aux TIC et l’interactivité qu’elles procurent des facteurs favorisant l’apprentissage (Karsenti, 2006), la réalité du terrain éducatif lui impose de reconnaitre que non seulement la révolution de la formation ouverte et à distance (FOAD) n’est pas encore d’actualité (OCDE, 2006), mais qu’elle ne le sera que si, pour faire face à la distance transactionnelle, plus accrue en formation à distance, l’apprenant ne se contente plus d’apprendre, mais d’apprendre à apprendre, ce qui exige de lui des compétences d’autonomie. Or, malgré des décennies d’intérêt et d’investissement de la recherche, le développement de l’autonomie sur le terrain reste toujours marginal, les débats philosophiques ayant pris le pas sur la quête de solutions pratiques (Albero ,2003). La question de savoir comment les éducateurs de la FOAD utilisent les solutions existantes, censées favoriser l’autonomie de l’apprenant, telles certaines formes de tutorat et de travail de groupes, n’est pas sans intérêt, puisqu’elle permet de mieux comprendre le terrain cible et sa part de responsabilité dans cet insuccès de l’autonomie. S’inscrivant en droite ligne des travaux d’Albero (2003), la présente étude organise les principes d’autonomie suivant un cadre conceptuel privilégiant l’action et le développement, selon une dimension dynamique symbolisant l’importance du soutien à accorder à l’apprenant, une dimension topologique indiquant la nécessité pour ce soutien de prendre en compte les différents aspects sur lesquels l’apprenant peut exercer son autonomie et une dimension chronologique exprimant l’importance du désétayage. De façon pratique, cette étude, démarrée en 2009 dans le contexte de la FOAD du 2IE (Institut International des Ingénieurs de l’Eau et de l’Environnement), sis à Ouagadougou au Burkina Faso, s’organise en trois articles : le premier tente de comprendre si les conditions d’efficacité de la FOAD, selon les apprenants, formulent un besoin d’apprentissage en autonomie; le second tente de comprendre, à partir des propos des tuteurs, si l’encadrement des apprenants respecte les principes d’autonomie; enfin, le troisième article s’est penché, sur la base des intentions exprimées par les concepteurs, sur le respect des principes d’autonomie par les cours. L’éloignement des apprenants et l’objectif de comprendre leurs perceptions de la FOAD, nous ont fait préférer une approche de recherche de type mixte, à la fois qualitative pour mieux comprendre leur perception (Karsenti & Savoie-Zajc, 2004) et quantitative, pour tenir compte de leur éloignement. Pour la perception des éducateurs, nous avons opté pour une approche qualitative/descriptive plus appropriée dès que l’étude vise la compréhension du phénomène social abordé (Karsenti & Savoie-Zajc, 2004). Des résultats obtenus, la perception des 62 apprenants sur les 170 initialement invités par courriel à répondre au questionnaire, semble confirmer l’autonomie de l’apprenant comme une condition de leur réussite en FOAD. La demande des apprenants pour un soutien accru, malgré l’effort actuellement consenti par l’encadrement, effort reconnu par les apprenants eux-mêmes et qu’attestent les 10 tuteurs interviewés sur une quarantaine au 2IE, devrait, toutefois, inviter à la réflexion, puisque ne s’opposant pas réellement à un apprentissage en hétéronomie. À l’analyse, il apparait que l’insatisfaction des apprenants s’expliquerait par la non-prise en compte des différents aspects susceptibles d’influencer leur apprentissage. De plus, en nous référant aux entretiens avec les 11 concepteurs de cours sur un total de 30, il apparait que, bien que conscients de la nécessité d’adapter les cours au contexte de la FOAD, ni la modularité des contenus, ni la flexibilité de la structure des cours ne semblent être prises en compte. Au final, l’étude révèle l’urgence de lutter contre les habitudes acquises en formation présentielle et la nécessité d’employer des pédagogues professionnels formés pour une pédagogie d’autonomisation. Encore faudrait-il que l’autonomie soit véritablement consacrée par la littérature comme une praxis pour signifier qu’elle n’a d’autre fin qu’elle-même, et non comme une poiesis, pour dire que l’autonomie vise une production et cesserait dès que son objectif est atteint.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Site web associé au mémoire: http://daou.st/JSreal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fullerène C60, une molécule sphérique, et le C70, un analogue ellisoïde, sont des composés aromatiques convexes constitués exclusivement d'atomes de carbone. La nature aromatique de la surface de ces cages de carbone rend possible leur association à l'état solide avec d'autres molécules aromatiques de topologie complémentaire. En particulier, l'association des fullerènes avec des composés présentant des motifs concaves aromatiques, via une association de type concave-convexe, est favorable. En effet, les interactions π•••π de type concave-convexe sont amplifiées grâce à la complémentarité topologique des partenaires impliqués. Le centrohexaindane est un hydrocarbure non planaire rigide qui a été synthétisé pour la première fois en 1988 par Kuck et collaborateurs. Cette molécule possède quatre surfaces aromatiques concaves orientées dans une géométrie tétraédrique qui sont susceptibles d'interagir favorablement avec les fullerènes. Nous avons ainsi avec succès cocristallisé le centrohexaindane avec les fullerènes C60 et C70. Puis, nous avons étudié les assemblages à l'état solide entre le centrohexaindane et les fullerènes par l'analyse des structures résolues via diffraction des rayons X. Les surfaces concaves aromatiques du centrohexaindane se sont révélées être propices à une association avec les fullerènes C60 et C70 via des interactions π•••π de type concave-convexe, tel que prévu. En outre, nous avons découvert que les liaisons C-H situées à la périphérie du centrohexaindane prennent part à une multitude de contacts C-H•••π avec les molécules de fullerène. Les échantillons de cocristaux composés de centrohexaindane et de fullerène ont aussi été caractérisés par diffraction de poudre des rayons X et par analyse thermogravimétrique dans le but d'en évaluer l'homogénéité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sera question dans ce mémoire de maîtrise de l’étude d’une nouvelle classification des états solides de la matière appelée isolant topologique. Plus précisément, nous étudierons cette classification chez le composé demi-Heusler GdBiPt. Nous avons principalement cherché à savoir si ce composé ternaire est un isolant topologique antiferromagnétique. Une analyse de la susceptibilité magnétique ainsi que de la chaleur spécifique du maté- riau montre la présence d’une transition antiferromagnétique à 8.85(3) K. Une mesure d’anisotropie de cette susceptibilité montre que les plans de spins sont ordonnés sui- vant la direction (1,1,1) et finalement des mesures de résistivité électronique ainsi que de l’effet Hall nous indiquent que nous avons un matériau semimétallique lorsque nous sommes en présence d’antiferromagnétisme. Présentement, les expériences menées ne nous permettent pas d’associer cet état métallique aux états surfaciques issus de l’état d’isolant topologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il a été démontré que les mots sont plus faciles à reconnaître lorsque leur moitié inférieure est effacée, laissant leur moitié supérieure intacte, que lorsque leur moitié supérieure est effacée. Si la reconnaissance de lettres sous-tend la reconnaissance de mots tel qu'il est généralement pris pour acquis, alors un tel effet devrait aussi être présent au niveau des lettres, mais ce n'est pas le cas. Le but de ce mémoire a d'abord été d'investiguer cette différence entre lettres et mots et, ensuite, de démontrer que la préférence pour le haut des mots ne peut pas s'expliquer par les lettres. Finalement, nous nous questionnons sur l'existence d'un construit intermédiaire entre lettres et mots et proposons les chaînes lexicales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.