994 resultados para Algorithme de coupes et branchements
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.
Resumo:
Estampado en la misma hoja con: "Sepulcro en Villa Joyosa"
Resumo:
Mode of access: Internet.
Resumo:
Supplement aux Regles du dessein et du lavis, 31 p.
Resumo:
L’examen clinique est un aspect primordial du rôle de l’infirmière et de l’infirmier. Toutes interventions découlent de cette évaluation. Afin de bien déterminer les interventions appropriées, les infirmières et infirmiers doivent également développer une pensée critique. Ces deux concepts sont interdépendants et doivent être intégrés dans l’enseignement de la pratique infirmière. L’expérience de la chercheuse et différentes études ont révélées que enseignement de l’examen clinique et de la pensée critique est un défi quotidien pour les enseignantes et enseignants aux collégial. Beaucoup de notions portant sur l’examen physique sont enseignées mais très peu sont utilisées dans les milieux de stage. Afin d’intégrer le processus d’évaluation clinique et de pensée critique chez les stagiaires, une activité d’évaluation clinique consistant à évaluer des patientes et patients dans une clinique école a été instaurée. Après deux sessions d’expérimentation, il a été constaté que les stagiaires présentaient plusieurs lacunes au niveau de l’examen clinique et de la pensée critique. Suite à la lecture d’études concluantes sur l’utilisation d’algorithmes afin de guider des étudiantes et étudiants, un algorithme de référence en examen clinique (AREC) a été élaboré afin d’aider les stagiaires à effectuer un examen clinique en utilisant une pensée critique. L’AREC a été expérimenté auprès de stagiaires de cinquième session en soins infirmiers au collégial dans le cadre du cours en soins ambulatoires. Les stagiaires pouvaient se référer à l’AREC lors de l’examen clinique afin d’effectuer une évaluation plus précise et complète. De plus, l’utilisation de l’AREC devait permettre aux stagiaires de se questionner dans le processus et d’améliorer leur pensée critique. L’expérimentation auprès de 18 stagiaires ne permet pas de généraliser les résultats mais des pistes intéressantes en sont ressorties. Il semble avoir une amélioration de l’examen clinique au niveau de la pertinence et de la structure mais les résultats restent tout de même faibles dans l’ensemble. Le médecin de la clinique abonde dans le même sens. Au niveau de la pensée critique, l’amélioration perceptible semble plus influencée par les questionnements spécifiques et réguliers de la chercheuse lors de l’expérimentation que par l’utilisation de l’AREC. De plus, les caractéristiques personnelles de chacun des stagiaires semblent influencer le niveau de pensée critique qu’ils démontrent. Par contre, les stagiaires semblent considérer que l’AREC a été favorable pour l’exécution de l’examen clinique ainsi que pour l’amélioration de la pensée critique. Ils semblent avoir apprécié son utilisation et suggèrent des pistes de solutions intéressantes pour son amélioration. Quelques recommandations pour l’enseignement émanent de cette expérimentation. L’enseignement de l’examen clinique avec l’AREC dès le début de la formation pourrait être plus efficace et permettre de structurer plus rapidement les stagiaires. En ce qui a trait à la pensée critique, l’utilisation de l’AREC à lui seul ne semble pas favorable au développement de la pensée critique. Par contre, l’enseignement du processus de pensée critique pourrait être fait à l’aide de l’AREC dès le début de formation afin de faire réaliser le type de raisonnement que nous nous attendons des stagiaires. De plus, les enseignantes et enseignants devraient recevoir une formation afin de savoir quelles questions poser pour favoriser le développement de la pensée critique chez les stagiaires.
Resumo:
Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
Messages à retenir: L'identification des anomalies pleurales et parenchymateuses liées à une exposition à l'amiante est essentielle pour la reconnaissance de maladie professionnelle, avec de lourdes conséquences économiques. Le scanner thoracique est l'outil le plus fiable de ce dépistage. La détection d'anomalies dans les régions basales et sous-pleurales doit conduire à la réalisation de coupes complémentaires en procubitus sur ces régions. Le diagnostic TDM des anomalies pleurales et parenchymateuses liées à l'amiante repose sur des critères diagnostiques et un vocabulaire précis. De nombreuses images pièges peuvent mimer des plaques ou une asbestose. Une bonne connaissance de l'anatomie de l'interface pleuro-parenchymateuse et des principaux diagnostics différentiels permet souvent de redresser le diagnostic. Résumé: Le scanner multicoupe est l'outil de référence pour le dépistage des pathologies pleurales et parenchymateuses liées à l'exposition à l'amiante. Le diagnostic de plaques pleurales repose sur une surélévation quadrangulaire et nette de l'interface pleuro-parenchymateuse, dans une ou des localisation(s) évocatrice(s). Les pièges responsables de fausses images de plaques sont nombreux : structures anatomiques et variantes de la normale, opacités postéro-basales liées à des troubles ventilatoires, sarcoïdose... Les plaques doivent être différenciées des autres anomalies pleurales bénignes pouvant être rencontrées dans ce contexte, mais non spécifiques d'une exposition à l'amiante : épaississements pleuraux diffus, fibrose de la plèvre viscérale, images en pieds de corneille. La reconnaissance d'une asbestose nécessite de s'affranchir de troubles ventilatoires liés à la déclivité ou à des contraintes mécaniques focales, chroniques, telles que des ostéophytes para-vertébraux. Les coupes en procubitus permettent d'affirmer l'existence d'une pathologie interstitielle débutante dans les régions sous-pleurales et basales. Des anomalies interstitielles isolées ne peuvent être attribuées à une asbestose, de même que des anomalies interstitielles non spécifiques, associées ou non à une pathologie diffuse fibrosante.
Resumo:
Contient : 1 Lettre de « DESCHAMPS,... à monsieur Daniel, recepveur de monseigneur l'admiral, à Dampville... A Paris, ce 25 febvrier 1608 » ; 2 Lettre de l'amiral « DE MONTMORENCY,... à monsieur Daniel,... A Paris, ce 25 febvrier 1608 » ; 3 Lettre de « HENRY D'ORLEANS,... à monseigneur de Murs, enseigne des gardes du corps du roy... D'Amyens... jour de Noël 1616 » ; 4 Lettre de « DU GUE,... à monsieur de Rosey, conseiller et maistre d'hostel ordinaire de madame la duchesse de Longueville,... D'Amiens, ce 18 mars 1617 » ; 5 Lettre de « HENRY D'ORLEANS,... à monseigneur de Murs,... D'Amyens, ce 14e avril 1617 » ; 6 Lettre du « grand maistre de Malthe, VASCONCELOS,... A Malte, le 29 septembre 1622 » ; 7 Lettre de « Frere PIERRE JANNOT,... au reverend Pere Le Maistre,... religieux au couvent des Peres Jacobins, à Rouen... A Besançon, prima decembris 1628 » ; 8 Armes et blason de la maison de « Nant. Montrichard » ; 9 Lettre de « GEORGE JEHAN, compte palatin du Rhin... à monsieur Le Febvre, intendant des finances pour Sa Majesté es duchés de Lorraine et Barrois à Nancy... De La Petite Pierre, ce 18/28 novembre 1634 » ; 10 Lettre de « SEGUIER,... à monsieur Le Febvre,... A Paris, ce 4 juillet 1635 » ; 11 Lettre de « CHARLES DE VALOIS,... à monsieur Le Fevre,... Ce 10 7bre 1635, à Nancy » ; 12 Lettre de « CHARLES DE VALOIS,... à monsieur Le Febvre,... Ce 16 octobre » ; 13 Lettre de « BOUTHILLIER,... à monsieur Le Febvre,... De Paris, ce... 16me janvier 1636 » ; 14 Lettre de « LA MELLERAIE,... à monsieur Le Febvre,... A Peronne, ce 27e septembre 1636 » ; 15 Lettre du roi « LOUIS » XIII au « duc de Longueville,... A St Germain en Laye, le XXIIIe novembre 1642 » ; 16 Lettre du roi « LOUIS [XIV]... à monsieur Paget,... A Dijon, le 4e avril 1650 » ; 17 Lettre du roi « LOUIS [XIV]... à monsieur Paget,... A Dijon, le XXIIIe avril 1650 » ; 18 Lettre de « Dom LUIS MENDEZ,... Madrid, ce 22 de janvier 1654 » ; 19 Lettre de « LOUIS [FOUQUET], evesque d'Agde... A Villefranche, le 7e d'aoust 1666 » ; 20 Lettre de « BOUCHE » à « M. le M. de Seignelay,... A Grenoble, le 28e avril 1688 » ; 21 Lettre de « LENOBLE TENELIERE,... à monsieur de La Reynie,... Ce 17 avril 1692 » ; 22 Lettre de Mme « DE CYVRIEU,... à monseigneur de Pollisy » ; 23 Lettre de « DU MESNIL DE MAXE » ; 24 « Copie de lettre adressée à M. l'abbé Strozzi,... A Paris, ce 21 decembre 1652 » ; 25 « Coppie de la lettre du roy à M. le mareschal de La Melleraye, au bas de laquelle est la minutte de la promesse qu'il doibt signer à M. le cardinal de Rez pour sa liberté. Ladite lettre du 28 mars 1654 » ; 26 « Coppie de la promesse de M. le marechal DE LA MELLERAYE pour se charger de la personne de M. le cardinal de Rez,... Du 28 jour de mars 1654 » ; 27 « Coppies de la lettre de M. le cardinal DE RETZ à messieurs les doyen et chanoines de l'esglize de Paris, du 8e jour d'aoust 1654, et de l'extrait de l'acte capitulaire de l'eslection des vicaires de l'archevesché de Paris, du dernier desdits mois et an » ; 28 « Coppie de la lettre de Mr le cardinal DE RHETZ à l'assemblée du clergé... Le 15 septembre 1656 » ; 29 « Lettre de monsieur le cardinal DE RHETZ, archevesque de Paris, au roy... Le XXII 7bre 1656 ». Copie ; 30 Lettre du « cardinal DE RHETZ,... à messieurs les cardinaux, archevesques, evesques et autres deputez de l'assemblée generalle du clergé de France... Le 12e octobre 1656 ». Copie ; 31 « Lettre du roy au clergé de France... A Paris, le 6 9bre 1656. Signé : LOUIS ». Copie ; 32 « Lettre de Mr le cardinal DE RHETZ au roy... Au Plessis, le 31e octobre ». Copie ; 33 « Lettre de Mr le cardinal DE RETZ au clergé... Du Plessis, le 31e octobre ». Copie ; 34 Lettre du « cardinal DE RETZ, archevesque de Paris », au « tres saint pere... De Mayene, le 15e aoust 1656 » ; 35 Fragment d'« une lettre ecripte à S. E. de Retz par quelques ecclesiastiques sans nom auparavant la revocation de M. Du Saussoy » ; 36 Donation d'« ARMAND, cardinal DE RICHELIEU », concernant « la maison du Calvaire... aux Marets du Temple, soubs le nom de la Crucifixion... Faict à Chaione, ce dimanche 8e jour de juillet 1636 ». Copie ; 37 Lettre d'« ARMAND, evesque de Luson... à madame de Bourges,... 1609 ». Copie ; 38 Lettre d'« ARMAND, evesque de Luçon... à madame de Bourges ». Copie ; 39 Lettre d'« ARMAND, evesque de Luson... à madame de Bourge,... Ce 6 juin 1610 ». Copie ; 40 Lettre d'« ARMAND, evesque de Luçon... à madame de Bourges,... A Coussay, ce 18 7bre 1611 ». Copie ; 41 Lettre d'« ARMAND, evesque de Luçon... à madame de Bourges,... 1613 ». Copie ; 42 Lettre d'« ARMAND, evesque de Luçon... à madame de Bourges ». Copie ; 43 Lettre d'« ARMAND, evesque de Luçon... à madame de Bourges ». Copie ; 44 Lettre d'« ARMAND, evesque de Luçon... à madame de Bourges,... 1614 ». Copie ; 45 Lettre d'« ARMAND, evesque de Luçon... à madame de Bourges, en sa maison devant l'eglise des Blancmanteaux ». Copie ; 46 Lettre d'« ARMAND, evesque de Luçon ». Copie ; 47 Lettre du « cardinal DE RICHELIEU,... à monsieur Bericard,... ambassadeur en Flandres... De Paris, ce 7e apvril 1623 ». Copie ; 48 Enregistrement d'actes concernant le cardinal de Richelieu. Copie ; 49 Copies d'actes du « samedy 26 aoust 1634 » et « vendredy 15 decembre 1634 », contenant permission donnée par le roi Louis XIII au cardinal de Richelieu de faire des coupes de bois dans plusieurs forèts ; 50 Histoire généalogique de « monsieur GUYOT » et de sa famille, originaire de Sens
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Resumo:
L'acide désoxyribonucléique (ADN) et l'acide ribonucléique (ARN) sont des polymères de nucléotides essentiels à la cellule. À l'inverse de l'ADN qui sert principalement à stocker l'information génétique, les ARN sont impliqués dans plusieurs processus métaboliques. Par exemple, ils transmettent l’information génétique codée dans l’ADN. Ils sont essentiels pour la maturation des autres ARN, la régulation de l’expression génétique, la prévention de la dégradation des chromosomes et le ciblage des protéines dans la cellule. La polyvalence fonctionnelle de l'ARN résulte de sa plus grande diversité structurale. Notre laboratoire a développé MC-Fold, un algorithme pour prédire la structure des ARN qu'on représente avec des graphes d'interactions inter-nucléotidiques. Les sommets de ces graphes représentent les nucléotides et les arêtes leurs interactions. Notre laboratoire a aussi observé qu'un petit ensemble de cycles d'interactions à lui seul définit la structure de n'importe quel motif d'ARN. La formation de ces cycles dépend de la séquence de nucléotides et MC-Fold détermine les cycles les plus probables étant donnée cette séquence. Mon projet de maîtrise a été, dans un premier temps, de définir une base de données des motifs structuraux et fonctionnels d'ARN, bdMotifs, en terme de ces cycles. Par la suite, j’ai implanté un algorithme, MC-Motifs, qui recherche ces motifs dans des graphes d'interactions et, entre autres, ceux générés par MC-Fold. Finalement, j’ai validé mon algorithme sur des ARN dont la structure est connue, tels que les ARN ribosomaux (ARNr) 5S, 16S et 23S, et l'ARN utilisé pour prédire la structure des riborégulateurs. Le mémoire est divisé en cinq chapitres. Le premier chapitre présente la structure chimique, les fonctions cellulaires de l'ARN et le repliement structural du polymère. Dans le deuxième chapitre, je décris la base de données bdMotifs. Dans le troisième chapitre, l’algorithme de recherche MC-Motifs est introduit. Le quatrième chapitre présente les résultats de la validation et des prédictions. Finalement, le dernier chapitre porte sur la discussion des résultats suivis d’une conclusion sur le travail.
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.