985 resultados para Haïtiens de deuxième génération
Resumo:
Le mal de ventre chez les enfants est un lieu de métissage et de créolisation traversé par des dimensions sociales et culturelles. Il est construit collectivement au sein des familles nucléaires avec leurs parcours migratoires et leurs souffrances. Par le biais d’entretiens menés auprès de familles haïtiennes vivant à Montréal, nous documentons les trajectoires de ces douleurs, dans lesquelles les perceptions, les explications et les moyens mis en œuvre pour les soulager interagissent d’une manière dynamique. En général, les enfants perçoivent leurs maux de ventre comme une expérience insaisissable, diffuse et ayant un impact sur leur vie sociale, tout en étant tolérés par les enfants et par les mères. Ces familles n’ont pas reçu de diagnostic médical et elles attribuent à ces maux des explications provisoires en constante recomposition. En général, elles ont recours à différentes méthodes de prise en charge des maux de ventre. L’espace familial, les activités réalisées au sein des églises et la médecine officielle sont des espaces thérapeutiques privilégiés.
Resumo:
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.
Resumo:
L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-delà de cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles.
Resumo:
Cette étude s’intéresse au discours des anciens combattants dans le cinéma français mettant en scène la Grande Guerre entre 1918 et 1939. L’objectif est de démontrer que le film propose une contre-histoire en permettant aux poilus d’exprimer leurs visions et leurs opinions sur 14-18 et sur la société de l’entre-deuxguerre. Utilisant leur expérience du front, les cinéastes deviennent historiens et témoins à la fois. Le film répond à un souci de préservation de la mémoire. Ayant été écarté de l’écriture de l’Histoire officielle, le témoignage des combattants se transpose dans l’image. Ils rétablissent ainsi les omissions et les inexactitudes. Parallèlement, le contexte politico-social influence l’interprétation du conflit, donnant lieu à des films commémoratifs ou politisés. Plus largement, cette étude s’interroge sur les permanences et les ruptures dans le discours dans l’entre-deux-guerre. Elle permet d’observer que la fiction peut en même temps être un témoignage historique de la Grande Guerre et une représentation du temps présent, en proposant une relecture des évènements.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
Cette thèse s’intéresse à un changement de paradigme dans l’imaginaire de la filiation tel qu’il est donné dans la littérature des femmes et les écrits du féminisme. L’hypothèse de travail est la suivante : à l’imaginaire d’une filiation déployée uniquement dans la latéralité des liens sororaux, se substitue au tournant des années 1990 un imaginaire mélancolique de la filiation, corollaire de la posture d’héritière désormais occupées par les auteures et penseures contemporaines. Parallèlement au développement d’une troisième vague du féminisme contemporain, la France et le Québec des années 1990 ont en effet vu naître ce qui est qualifié depuis peu de « nouvelle génération d’écrivaines ». « Premières », à l’échelle de l’histoire de la littérature des femmes, « à bénéficier d’un riche héritage littéraire féminin » (Rye et Worton, 2002 : 5), les auteures appartenant à ces « nouvelles voix » s’avèrent en effet doublement héritières, à la fois d’une tradition littéraire au féminin et de la pensée féministe contemporaine. Alors que la génération des années 1970 et du début des années 1980, se réclamant en un sens des discours d’émancipation des Lumières (liberté, égalité, fraternité), refusait l’héritage des générations antérieures, imaginant une communauté construite dans la sororité et fondée sur le meurtre des figures parentales, la génération actuelle n’est plus, quant à elle, dans la rupture. Située dans l’appropriation du passé et de l’histoire, elle réinvestit l’axe vertical de la généalogie. Or, c’est dans un récit familial mortifère ou encore lacunaire, morcelé, troué par le secret, ruiné par le passage du temps, toujours en partie perdu, qu’avancent les auteures, tout en questionnant le généalogique. Celui-ci ne s’entend pas ici en tant que vecteur d’ordre ou principe d’ordonnancement hiérarchique, mais se pose plutôt comme un mouvement de dislocation critique, « dérouteur des légitimités lorsqu’il retrace l’histoire des refoulements, des exclusions et des taxinomies » (Noudelmann, 2004 : 14) sur lesquels s’est construite l’histoire familiale. En d’autres termes, l’interrogation filiale à l’œuvre chez cette génération héritière participe d’une recherche de l’altérité, voire de l’étrangement, également présente dans les écrits théoriques et critiques du féminisme de la troisième vague. Cette thèse, en s’étayant sur l’analyse des récits de femmes et des écrits féministes publiés depuis les années 1970 – moment qui coïncide avec l’émergence de ce qu’il est désormais convenu d’appeler le féminisme de la deuxième vague –, a ainsi pour objectif de cerner les modifications que connaît l’imaginaire de la filiation à travers ce changement de paradigme. À l’aune de cette analyse menée dans la première partie, « De la sororité aux liens f(am)iliaux. Imaginaires de la filiation et représentations du corps », il s’agit, dans les deux parties suivantes intitulées « Des fantômes et des anges. La filiation en régime spectrale » et « Filles et mères, filles (a)mères. La filiation en régime de deuil » et consacrées plus précisément à l’étude des récits sélectionnés, de dégager les modalités filiales explorées par les auteures depuis le tournant des années 1990.
Resumo:
Comme dans la plupart des pays francophones d’Afrique Subsaharienne, la question du vieillissement ou la situation des personnes âgées ne sont pas encore d’actualité au Niger, principalement à cause de la jeunesse de sa population d’une part et d’un intérêt plus porté sur les enfants, les adolescents et les mères d’autre part. Pourtant le Niger fait face à une crise économique sans précédent qui peut avoir des conséquences néfastes sur les conditions de vie des personnes âgées. D’un côté, selon la coutume, la personne âgée (généralement grand parent) s’occupe principalement des petits enfants (orphelins ou non) qui lui sont confiés par leurs parents vivant dans la même localité ou ailleurs, ou qui sont décédés. De l’autre, l’absence d’un jeune adulte dans un ménage où vit au moins une personne âgée est considérée comme un phénomène social préoccupant dans les pays à forte prévalence de VIH/SIDA. Le Niger fait partie des pays où la proportion des personnes âgées vivant avec des petits enfants en l’absence de leurs parents adultes est la plus élevée. Cependant, malgré une forte mortalité adulte, l’absence de données fiables ne permet pas de le classer parmi les pays à forte mortalité adulte due au VIH/SIDA. La raison de cette situation est donc à chercher dans les différences individuelles et communautaires. Jusqu’au début des années 1990, la plupart des études sur les personnes âgées réalisées en Afrique Subsaharienne étaient basées sur les études qualitatives, tandis que les plus récentes sont faites à partir des données des recensements ou enquêtes sociodémoraphiques et économiques. Les conditions de vie des personnes âgées et les conséquences de la pauvreté et du VIH/SIDA sur celles-ci sont les principaux thèmes jusque-là couverts à l’aide des données existantes. Mais, il manque encore de données longitudinales essentielles à l’analyse de certains aspects du cycle de vie des personnes âgées. L’étude n’étant pas sociologique, c’est à l’aide de données démographiques quantitatives, plus précisément le recensement général de la population, que nous tenterons d’expliquer le phénomène sur une base exploratoire. L’analyse au niveau individuel a été faite à l’aide de la régression logistique sous STATA, tandis qu’au niveau contextuel, nous avons utilisé l’analyse multiniveau à l’aide du logiciel HLM (version 6.0). Les résultats indiquent que la vie en l’absence d’un jeune adulte et dans un ménage à génération coupée dépendent principalement du statut sociodémographique de la personne âgée au Niger. Par exemple, il ressort que le mariage avantage l’homme âgé, tandis que le veuvage l’isole plus que la femme âgée. Au niveau contextuel, ce sont les facteurs socioéconomiques qui influencent les conditions de vie des personnes âgées. L’étude montre, en effet, que le degré d’urbanisation d’une commune augmente le risque d’isolement d’une personne âgée qui y réside, alors que le niveau de pauvreté le réduit. Toutefois, nos résultats sont à prendre avec prudence parce qu’en premier lieu il n’existe pas d’études références sur le sujet tant au Niger que dans la sous-région d’Afrique francophone sahélienne. Ensuite, parce que le phénomène étudié pourrait être mesuré de plusieurs manières en fonction du contexte et des données disponibles, et que l’analyse approfondie des effets du statut matrimonial nécessiterait une plus grande connaissance du phénomène chez les personnes âgées. Enfin, compte tenu de la faible prévalence du VIH/SIDA au Niger, les principaux facteurs explicatifs de la vie dans un ménage à génération coupée (aussi bien pour les personnes âgées que pour les enfants) pourraient être le confiage des enfants ou la mortalité adulte due aux autres causes telles que le paludisme, la tuberculose et les maladies infectieuses. Toutefois, l’absence d’informations relatives à ces aspects dans les données utilisées n’a pas permis de les intégrer dans notre étude. Ainsi, compte tenu de la difficulté d’appréhender les contours du phénomène, les futurs programmes en faveur des personnes âgées au Niger et en Afrique Subsaharienne francophone doivent se baser sur des études concrètes relatives aux dimensions sociale et économique du phénomène. Mots clés : Niger - personnes âgées - conditions de vie - mode de vie - cohabitation intergénérationnelle - études comparatives - absence d’un jeune adulte - ménage à génération coupée - Afrique.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Réalisé en cotutelle, sous la direction du Pr. Bernold Hasenknopf, à l'Institut Parisien de Chimie Moléculaire, Université Pierre et Marie Curie (Paris VI, France) et dans le cadre de l'Ecole Doctorale "Physique et Chimie des Matériaux" - Spécialité Chimie Inorganique (ED397).
Resumo:
Cette étude teste l’hypothèse que le remodelage osseux dans le deuxième métacarpe peut être utilisé pour estimer l’âge à la mort. Les métacarpes utilisés dans cette analyse proviennent d’un cimetière d’Ontario, incluant des individus d’origine européenne (n=63; 34 hommes; 29 femmes). Leur âge varie de 19 à 61 ans (moyenne: 41,1±11,6). L’âge était connu ou a été estimé indépendamment à partir de la morphologie générale du squelette. À partir de lames minces coupées à la mi-diaphyse, la densité de population des ostéons (OPD; ostéons/mm2 intacts et fragmentaires) a été calculée pour huit colonnes du périoste à l’endoste, deux par quadrant anatomique. Les régressions par calibration classique ont produit une série d’équation pour les estimations de l’âge pour chaque sexe, sexes combinés, et en fonction de la latéralité. La méthode utilisée diminue l’efficacité des estimations mais elle a l’avantage de réduire les biais. Quand les sexes sont combinés, l’OPD est corrélé modérément mais significativement avec l’âge (droit r2= 0,35; gauche r2=0,28). Cependant, quand les hommes et les femmes sont analysés séparément, la corrélation entre l’OPD et l’âge dans l’échantillon féminin est meilleure (droit r2=0,48; gauche r2=0,39) alors que celle des hommes est réduite (droit r2=0,29; gauche r2=0,22). Ce résultat a déjà été observé dans d’autres études, mais n’est pas expliqué. Les résultats démontrent aussi une meilleure corrélation entre l’OPD et l’âge du côté droit que du côté gauche. Tous les résultats présentés ici supportent l’hypothèse que l’OPD du métacarpe est corrélé avec l’âge effectif (c’est-à-dire connu ou estimé), les régressions de l’OPD sur l’âge (droit-gauche combinés ou séparés, sexes combinés ou séparés) étant toutes significatives.
Resumo:
Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.
Resumo:
L’enseignement des sciences est capital dès l’école primaire, mais est souvent délaissé. Les musées scientifiques peuvent palier à cette lacune en offrant des ressources éducatives concrètes, dont les programmes éducatifs. Cette recherche détermine l’impact d’une animation pédagogique de la Biosphère sur certaines conceptions d’élèves du deuxième cycle du primaire. La chercheuse a opté pour une recherche qualitative et la méthode choisie est l’étude de cas, de type exploratoire. Des élèves d’une classe ont participé à l’étude. Ils ont assisté à une visite muséale, insérée au sein d’une séquence didactique. À l’aide de plusieurs outils de collecte de données (questionnaires, entrevues et observations), la chercheuse a été en mesure d’identifier quatre niveaux de modification des conceptions d’élèves (évolution notable, une certaine évolution, stabilité des conceptions, confusion des conceptions). Enfin, elle suggère quelques pistes d’amélioration à la Biosphère afin de maximiser l’impact de la visite sur l’apprentissage des élèves.
Resumo:
Les fichiers sons qui accompagne mon document sont au format midi. Le programme que nous avons développés pour ce travail est en language Python.
Resumo:
Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.
Resumo:
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].