965 resultados para Résolution de superpositions


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce document traite premièrement des diverses tentatives de modélisation et de simulation de la nage anguilliforme puis élabore une nouvelle technique, basée sur la méthode de la frontière immergée généralisée et la théorie des poutres de Reissner-Simo. Cette dernière, comme les équations des fluides polaires, est dérivée de la mécanique des milieux continus puis les équations obtenues sont discrétisées afin de les amener à une résolution numérique. Pour la première fois, la théorie des schémas de Runge-Kutta additifs est combinée à celle des schémas de Runge-Kutta-Munthe-Kaas pour engendrer une méthode d’ordre de convergence formel arbitraire. De plus, les opérations d’interpolation et d’étalement sont traitées d’un nouveau point de vue qui suggère l’usage des splines interpolatoires nodales en lieu et place des fonctions d’étalement traditionnelles. Enfin, de nombreuses vérifications numériques sont faites avant de considérer les simulations de la nage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Les études quantitatives ont documenté l’ampleur des problèmes d’observance en début de psychose et les conséquences cliniques qui en découlent. La compréhension du phénomène demeure toutefois limitée. Notre étude propose d’explorer, à partir de trois perspectives (celles des patients, des proches et des cliniciens), les raisons pour lesquelles les patients en début de psychose acceptent ou refusent les traitements. Méthode: La collecte des données s’est faite à l’aide d’entrevues individuelles semi-structurées auprès de 18 patients d’une clinique spécialisée en psychose débutante classifiés comme étant observants, ambivalents ou non observants, et auprès de 13 de leurs proches, ainsi qu’à l’aide d’un focus group réunissant 8 cliniciens de la clinique. Résultats: L’observance semble s’inscrire dans un processus marqué par une certaine ambivalence pour la plupart des sujets. Cette ambivalence est modulée par: des enjeux identitaires, des enjeux relationnels, la compréhension du diagnostic et la signification du traitement. Conclusion: L’ambivalence et l’inobservance seraient des étapes normales du processus au cours duquel le patient lutte pour reconstruire son identité. La présence d’un lien de confiance permet la résolution progressive de l’ambivalence, facilitant ainsi le processus de réappropriation du traitement par le patient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dégénérescence articulaire sévère de la hanche est une pathologie fréquente et son traitement ultime est le remplacement prothétique. L’arthroplastie la plus répandue au monde est la prothèse totale de hanche (PTH) avec un couple de frottement métal-sur-polyéthylène (MPE). Cependant ce type d’intervention présente une longévité limitée à cause de l’usure de PE et ne convient pas aux patients actifs souffrant de coxarthrose sévère tôt dans leur vie. Afin de palier à ce problème, une nouvelle génération de surfaces de frottement métal-sur-métal (MM) est actuellement employée. Ces surfaces de frottement sont utilisées en PTH avec tête de 28 mm, en resurfaçage (RH) et avec la PTH à tête de grand diamètre. Alors qu’il y a beaucoup d’évidence à l’égard du bon fonctionnement des implants PTH 28 mm et du RH, les données quant aux performances in vivo des PTH MM à grand diamètre manquent. Malgré cela, ces implants sont utilisés à grande échelle. Dans un premier temps, l’objectif de ce travail de recherche était d’évaluer l’effet et de comparer les taux d’ions chrome (Cr) et cobalt (Co) chez des sujets porteurs de PTH MM à grand diamètre à ceux de 64 porteurs de RH, tous deux possédant des surfaces de frottement aux propriétés tribologiques identiques. Dans un deuxième temps, nous avons comparé les taux ioniques (Cr, Co et titane (Ti)) entre quatre PTH MM à grand diamètre provenant de fabricants différents (Zimmer, DePuy, Smith & Nephew et Biomet). Les mesures d’ions étaient effectuées dans le sang entier dans un laboratoire indépendant par la technique de spectrophotométrie de masse à haute résolution HR-ICP-MS, pour l’ensemble de ce travail de recherche. Les deux comparaisons ont démontré le rôle crucial joué par la modularité au niveau de la jonction tête-col des PTH MM à grand diamètre. En effet, des écarts considérables dans les concentrations ioniques de Co ont été retrouvés entre les RH et PTH Durom ayant un couple de frottement identique, ainsi qu’entre les 4 différents designs de PTH MM à grand diamètre comparés entre eux. La PTH MM à grand diamètre Durom était la moins favorable alors que celle de Biomet était la plus performante. Nos observations démontrent que des sources inattendues comme la jonction tête-col de certains implants PTH MM à grand diamètre peuvent contribuer au relargage ionique systémique. Une meilleure compréhension de ce phénomène est indispensable avant l’utilisation clinque de nouveaux implants de ce type.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stagnation est un phénomène fréquent dans le domaine de la natation, bien qu’inexpliqué et incompris, pour lequel peu de solutions sont proposées. Malgré quelques recherches sur ce phénomène, notamment au baseball, la littérature sur le sujet demeure incomplète et ne permet pas de bien cerner le problème de la stagnation. Ainsi, cette étude a pour but premier d’identifier et de comprendre les causes possibles de la stagnation, les changements émotionnels, physiques et sociaux engendrés par un tel phénomène et les stratégies utilisées par les athlètes pour gérer la stagnation. Le deuxième objectif de cette étude est de jeter un regard sur l’impact de l’optimisme sur la résolution de la stagnation. Pour ce faire, des entrevues semi-structurées ont été menées auprès de onze nageurs ayant compétitionné au niveau national canadien. Les nageurs étaient divisés en trois groupes: les nageurs ayant résolu leur stagnation et qui continuent de nager, les nageurs ayant cessé la compétition de natation suite à une stagnation non résolue et ceux qui nagent encore malgré une stagnation non résolue. Les candidats sélectionnés ont complété deux questionnaires sur l’optimisme, le LOT-R et l’ASQ. L’analyse des résultats, réalisée grâce à la théorisation ancrée, a permis de déterminer un ensemble d’émotions vécues par les athlètes et d’identifier des stratégies afin de résoudre la stagnation. Les résultats de cette étude indiquent qu’une balance entre l’optimisme et le pessimisme, une motivation intrinsèque ainsi qu’une auto-détermination chez l'athlète sont des éléments importants afin de surmonter une stagnation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La candidose oro-pharyngée (COP) est l’infection fongique opportuniste la plus commune chez les individus infectés par le VIH-1. La production des cytokines Il-17 et Il-22 par les lymphocytes Th17 est importante lors de la résolution de la COP, puisque ces cytokines induisent la production de peptides antifongiques et le recrutement des neutrophiles polymorphonucléaires. Toutefois, les lymphocytes Th17 sont préférentiellement déplétés chez les individus infectés par le VIH-1. Le modèle de COP chez la souris transgénique (Tg) CD4C/HIVMutA, exprimant les gènes nef, env et rev du VIH-1, permettra de déterminer si des altérations quantitatives et/ou fonctionnelles des sous-populations de lymphocytes T CD4+ causent la sensibilité à la candidose. Les sous-populations Th1, Th2, Th1Th17, Th17 et Treg, ainsi que leurs précurseurs, les lymphocytes T CD4+ naïfs, sont sévèrement déplétées dans les ganglions cervicaux de la souris Tg. Cependant, les lymphocytes T CD4+ naïfs conservent la capacité à se différencier in vitro en présence de cytokines polarisantes et à produire les cytokines typiques des diverses sous-populations. De plus, les cytokines requises pour la polarisation des lymphocytes T CD4+ naïfs n’étaient pas réduites dans les ganglions cervicaux des souris Tg, 7 jours après le début de l’infection. Les gènes S100a8, Ccl20, Il17 et Il22 étaient surexprimés en réponse à la COP chez la souris non-Tg, mais pas chez la souris Tg. Le traitement de souris Tg infectées à l’aide de la combinaison des cytokines Il-17 et Il-22 réduit significativement la charge fongique buccale de C. albicans et le nombre d’hyphes dans l’épithélium de la langue et restaure la capacité à surexprimer des gènes S100a8, Ccl20 et Il22. Ces résultats démontrent que la perturbation de l’induction de l’immunité innée par l’Il-17 et l’Il-22 augmente la susceptibilité à la COP chez la souris Tg.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire est d’analyser les impacts et l’efficacité de la politique d’assassinats ciblés d’Israël dans le cadre du conflit israélo-palestinien. Pour ce faire, trois angles d’approches sont utilisés; militaire, légale et politique. Pour cette raison, l’hypothèse de départ soutient que la politique compromet la résolution du conflit et se divise en trois sections. Tout d’abord, les assassinats ciblés nuisent au règlement du conflit car ils engendrent un cycle de représailles contre Israël. Deuxièmement, ils représentent une violation du droit international ainsi que du droit national israélien. Finalement, ils sont un sérieux obstacle à la résolution politique du conflit dû au climat de violence et de méfiance qu’ils instaurent. Dans la conclusion, il est retenu que, bien que la politique d’assassinats ciblés ne soit pas efficace pour lutter contre les organisations terroristes, elle n’engendre cependant pas d’effet contreproductif de cycle de violence. Dans un second temps, la politique va à l’encontre de lois internationales mais elle peut cependant être justifiée par certains articles issus de ces mêmes textes alors que la Cour suprême israélienne a reconnu que certaines opérations pouvaient s’avérées légales. Troisièmement, elle nuit bel et bien à la résolution politique du conflit israélopalestinien en exacerbant les tensions de par le climat qu’elle instaure. Finalement, les nombreux impacts de celle-ci sur le conflit n’en font pas une politique efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le centromère est la région chromosomique où le kinétochore s'assemble en mitose. Contrairement à certaines caractéristiques géniques, la séquence centromérique n'est ni conservée entre les espèces ni suffisante à la fonction centromérique. Il est donc bien accepté dans la littérature que le centromère est régulé épigénétiquement par une variante de l'histone H3, CENP-A. KNL-2, aussi connu sous le nom de M18BP1, ainsi que ces partenaires Mis18α et Mis18β sont des protéines essentielles pour l'incorporation de CENP-A nouvellement synthétisé aux centromères. Des évidences expérimentales démontrent que KNL-2, ayant un domaine de liaison à l'ADN nommé Myb, est la protéine la plus en amont pour l'incorporation de CENP-A aux centromères en phase G1. Par contre, sa fonction dans le processus d'incorporation de CENP-A aux centromères n'est pas bien comprise et ces partenaires de liaison ne sont pas tous connus. De nouveaux partenaires de liaison de KNL-2 ont été identifiés par des expériences d'immunoprécipitation suivies d'une analyse en spectrométrie de masse. Un rôle dans l'incorporation de CENP-A nouvellement synthétisé aux centromères a été attribué à MgcRacGAP, une des 60 protéines identifiées par l'essai. MgcRacGAP ainsi que les protéines ECT-2 (GEF) et la petite GTPase Cdc42 ont été démontrées comme étant requises pour la stabilité de CENP-A incorporé aux centromères. Ces différentes observations ont mené à l'identification d'une troisième étape au niveau moléculaire pour l'incorporation de CENP-A nouvellement synthétisé en phase G1, celle de la stabilité de CENP-A nouvellement incorporé aux centromères. Cette étape est importante pour le maintien de l'identité centromérique à chaque division cellulaire. Pour caractériser la fonction de KNL-2 lors de l'incorporation de CENP-A nouvellement synthétisé aux centromères, une technique de microscopie à haute résolution couplée à une quantification d'image a été utilisée. Les résultats générés démontrent que le recrutement de KNL-2 au centromère est rapide, environ 5 minutes après la sortie de la mitose. De plus, la structure du domaine Myb de KNL-2 provenant du nématode C. elegans a été résolue par RMN et celle-ci démontre un motif hélice-tour-hélice, une structure connue pour les domaines de liaison à l'ADN de la famille Myb. De plus, les domaines humain (HsMyb) et C. elegans (CeMyb) Myb lient l'ADN in vitro, mais aucune séquence n'est reconnue spécifiquement par ces domaines. Cependant, il a été possible de démontrer que ces deux domaines lient préférentiellement la chromatine CENP-A-YFP comparativement à la chromatine H2B-GFP par un essai modifié de SIMPull sous le microscope TIRF. Donc, le domaine Myb de KNL-2 est suffisant pour reconnaître de façon spécifique la chromatine centromérique. Finalement, l'élément reconnu par les domaines Myb in vitro a potentiellement été identifié. En effet, il a été démontré que les domaines HsMyb et CeMyb lient l'ADN simple brin in vitro. De plus, les domaines HsMyb et CeMyb ne colocalisent pas avec CENP-A lorsqu'exprimés dans les cellules HeLa, mais plutôt avec les corps nucléaires PML, des structures nucléaires composées d'ARN. Donc, en liant potentiellement les transcrits centromériques, les domaines Myb de KNL-2 pourraient spécifier l'incorporation de CENP-A nouvellement synthétisé uniquement aux régions centromériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie infrarouge à matrice à plan focal (PAIRS) est utilisée pour étudier la déformation et la relaxation des polymères à très haute vitesse, soit de 46 cm/s, grâce à sa résolution temporelle de quelques millisecondes. Des mesures complémentaires de spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) ont été réalisées pour suivre des déformations plus lentes de 0,16 à 1,6 cm/s avec une résolution temporelle de quelques centaines de millisecondes. Notre étude a permis d’observer, à haute vitesse de déformation, un nouveau temps de relaxation (τ0) de l’ordre d’une dizaine de millisecondes qui n’est pas prédit dans la littérature. Le but de cette étude est de quantifier ce nouveau temps de relaxation ainsi que de déterminer les effets de la température, de la masse molaire et de la composition du mélange sur ce dernier. Des mesures effectuées sur du polystyrène (PS) de deux masses molaires différentes, soit 210 et 900 kg/mol, à diverses températures ont révélé que ce temps est indépendant de la masse molaire mais qu’il varie avec la température. Des mesures effectuées sur des films composés de PS900 et de PS deutéré de 21 kg/mol, ont révélé que ce temps ne dépend pas de la composition du mélange et que la longueur des chaînes de PS n’a aucun impact sur celui-ci. D’autres mesures effectuées sur des films de PS900 mélangé avec le poly(vinyl méthyl éther) (PVME) ont révélé que ce temps est identique pour le PS900 pur et le PS900 dans le mélange, mais qu’il est plus court pour le PVME, de l’ordre de quelques millisecondes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le flou de mouvement de haute qualité est un effet de plus en plus important en rendu interactif. Avec l'augmentation constante en qualité des ressources et en fidélité des scènes vient un désir semblable pour des effets lenticulaires plus détaillés et réalistes. Cependant, même dans le contexte du rendu hors-ligne, le flou de mouvement est souvent approximé à l'aide d'un post-traitement. Les algorithmes de post-traitement pour le flou de mouvement ont fait des pas de géant au niveau de la qualité visuelle, générant des résultats plausibles tout en conservant un niveau de performance interactif. Néanmoins, des artefacts persistent en présence, par exemple, de mouvements superposés ou de motifs de mouvement à très large ou très fine échelle, ainsi qu'en présence de mouvement à la fois linéaire et rotationnel. De plus, des mouvements d'amplitude importante ont tendance à causer des artefacts évidents aux bordures d'objets ou d'image. Ce mémoire présente une technique qui résout ces artefacts avec un échantillonnage plus robuste et un système de filtrage qui échantillonne selon deux directions qui sont dynamiquement et automatiquement sélectionnées pour donner l'image la plus précise possible. Ces modifications entraînent un coût en performance somme toute mineur comparativement aux implantations existantes: nous pouvons générer un flou de mouvement plausible et temporellement cohérent pour plusieurs séquences d'animation complexes, le tout en moins de 2ms à une résolution de 1280 x 720. De plus, notre filtre est conçu pour s'intégrer facilement avec des filtres post-traitement d'anticrénelage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les arrêts sur l’affaire Beaudoin c. Université de Sherbrooke (Cour Supérieure et Cour d’Appel du Québec 2008-2010) ont porté sur l’intensité de l’obligation de consultation insérée dans l’accord de partenariat de recherche. Ce type de partenariat est souvent créé par un accord et peut prendre plusieurs formes. La plupart d’entre elles sont méconnues par le droit, c’est pourquoi la doctrine les considère comme étant des entreprises complexes puisque le choix des partenaires est souvent guidé par le souci d’échapper au formalisme qu’imposent les règles étatiques. Cependant, les pratiques connues dans le secteur d’activité des associés et les accords qui les lient sont souvent les seules règles qu’ils suivent. En cas de conflit, ils recourent généralement à un tiers expert pour régler leur litige, la saisine des tribunaux ne se faisant qu’exceptionnellement. Dans cette cause, les contractions entre les deux décisions ont soulevé quelques interrogations : d’une part, sur la capacité des tribunaux à trancher des conflits qui peuvent naître au cours de l’exécution de ce type de contrat, et d’autre part sur la compatibilité des règles matérielles applicables au fond par les juges lorsque les parties ne sont liées que par la lex contractus et les usages reconnus dans leur secteur d’activité. Cette étude tente donc d’identifier la forme de partenariat en cause afin de mesurer l’étendue de la compétence ratione materiae du juge dans la résolution des conflits nés d’un contrat complexe (PARTIE I), et d’examiner l’opportunité de recourir aux modes alternatifs de résolution des litiges (PARTIE II).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.