988 resultados para Méthodes polyédrales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. Ce projet de recherche consiste en une étude cohorte prospective randomisée visant à évaluer les douleurs ressenties au niveau de l’articulation temporo-mandibulaire (ATM) lors d’une thérapie d’avancement mandibulaire grâce à un appareil fixe, le correcteur de classe II (CC) et d’un appareil amovible, le Twin-Block (TB). Matériels et méthodes. Cette étude comptait 26 patients (11 hommes et 15 femmes), âge moyen de 12ans 10mois (10ans 4mois à 15ans 10mois). Les sujets devaient avoir une malocclusion de classe II et être en croissance, CVM 2 ou 3 (Cervical Vertebral Maturation). Les patients étaient divisés en deux groupes : TB et CC. La douleur était évaluée selon l’axe I de l’examen du RDC/TMD (Research Diagnostic Criteria for Temporomandibular Disorders) à 7 reprises (T0 à T6). De plus, le patient devait remplir un questionnaire, à la maison, sur la douleur ressentie et la médication prise lors des 30 premiers jours. La douleur était évaluée avant l’insertion des appareils (T0), à 1 semaine (T1) post-insertion, 4 semaines plus tard (T2), 8 semaines (T3) où une expansion de 20 tours (environs 5 mm) était débutée, ensuite (T4) (T5) et (T6) chacun à 8 semaines d’intervalles. Les tests statistiques utilisés dans cette étude : le test «Wilcoxon à un échantillon» ainsi que le test «Mann-Whitney à échantillons indépendants ». Résultats et Discussion. La douleur à l’examen clinique est variable mais tend à diminuer avec le temps. Aucune différence, statistiquement significative, ne fut observée entre les 2 groupes en ce qui à trait aux diverses palpations effectuées. Parmi les patients ayant rapporté de la douleur, 40% l’ont ressentie surtout le matin et 63,3% ont dit qu’elle durait de moins d’une heure jusqu’à quelques heures. Conclusion. D’après nos résultats, lors d’une thérapie myofonctionnnelle, il n’y a pas de différence statistiquement significative entre la douleur occasionnée par un Twin-Block et celle produite par un correcteur de classe II fixe au niveau de l’ATM et des muscles du complexe facial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: La correction de la Classe II avec un appareil myofonctionnel est un traitement commun chez les patients en croissance. Le Twin Block et le correcteur de Classe II fixe (CCF) sont des appareils populaires et plusieurs publications scientifiques ont décrit leurs effets sur les tissus orofaciaux. Plusieurs articles rapportent les changements de l’électromyographie des muscles de la mastication durant le traitement avec un Twin Block, mais peu d’articles ont étudié ces changements avec un CCF. Comme le Twin Block et le CCF ont des biomécaniques différentes, leur influence sur les muscles est possiblement différente. Objectifs: Évaluer les adaptations musculaires suite à un traitement par appareil myofonctionnel : Twin Block et CCF. Matériels et méthodes: Dans une étude cohorte prospective, 24 patients en pic de croissance ont été assignés aléatoirement à un traitement (13 Twin Block; 11 CCF) et l’EMG des muscles masséters et temporaux a été mesurée à 1, 5, 13, 21, 29, 37 semaines. Les muscles ont été mesurés sous trois états: au repos, en occlusion centré (OC) et en contraction volontaire maximal (CVM) Résultats: Les données ont été analysées à l’aide d’un modèle mixte linéaire à mesures répétées et ont été documentées pour chaque muscle selon quatre conditions: i- avec Twin Block en bouche, ii- sans Twin Block en bouche iii- avec CCF en bouche et iv- sans Twin Block comparé au groupe avec CCF. Dans la condition i, des résultats significatifs ont été observés au repos pour le masséter droit et gauche, ainsi que le temporal gauche avec une valeur-p≤0.005. En CVM, la condition i montre aussi des résultats significatifs pour le masséter droit et le temporal gauche avec une valeur-p≤0.05. Les conditions ii et iii ont obtenu des résultats non-significatifs en tout temps. Par contre, lorsque ces deux conditions sont comparées l’une à l’autre (condition iv), des résultats significatifs ont été obtenus en OC pour les temporaux gauche et droit avec une valeur-p=0.005. Conclusions: Avec le Twin Block en bouche, l’EMG augmente au cours du temps en CVM, mais diminue en OC. Par contre, sans le Twin Block en bouche et avec le CCF en bouche, l’EMG ne varie pas. Cependant, le Twin Block et le CCF sont différents au niveau des mesures de l’EMG au cours des neuf mois de traitement. Ceci peut être expliqué par le nivellement graduel de l’occlusion postérieure durant le traitement avec le CCF qui ne se produit pas avec le Twin Block.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : De manière générale, on considère que le processus de validation d’un instrument de mesure porte sur la validité et la fiabilité. Or, la nature dynamique et évolutive de certaines problématiques, comme la stigmatisation des personnes vivant avec le VIH (PVVIH), laisse croire qu’il est particulièrement important de réinvestir rapidement dans la pratique, les résultats produits par les mesures ainsi validées. Objectifs : La présente thèse vise à développer et valider une échelle de mesure des attitudes stigmatisantes envers les PVVIH en intégrant un dispositif participatif. La thèse utilise en partie les données d’une enquête de surveillance des attitudes envers les PVVIH au Québec, elle comporte trois études qui répondent aux trois objectifs spécifiques suivants : (1) valider la version révisée d’un instrument de mesure des attitudes favorables à la stigmatisation dans la population générale du Québec envers les PVVIH; (2) analyser la relation entre la mesure des attitudes favorables à la stigmatisation et le recours au dépistage du VIH dans la population générale du Québec; (3) décrire et analyser les processus de circulation et d’utilisation des connaissances produites par l’instrument de mesure dans les réseaux professionnels des membres d’un comité consultatif. Méthodes : Un comité consultatif réunissant plusieurs partenaires issus de différents milieux a été constitué dès l’obtention de la subvention. Il a été consulté et informé avant, pendant et après l’enquête téléphonique populationnelle (n=1500) ayant permis de colliger les données. L’Échelle des Attitudes Stigmatisantes envers les Personnes Vivant avec le VIH (EASE-PVVIH) a été validée au moyen de plusieurs analyses psychométriques : analyses factorielles exploratoires et confirmatives, corrélations, régression linéaire multiple, test-t, tests d’hypothèses d’invariance de la structure factorielle et alphas de Cronbach (objectif 1). L’association entre les attitudes favorables à la stigmatisation et le recours au dépistage du VIH a été testée à l’aide de régressions logistiques hiérarchiques (objectif 2). Quant aux processus de circulation et d’utilisation des connaissances dans les réseaux professionnels, ils ont été analysés au moyen d’une étude de cas rétrospective (objectif 3). Résultats : Les analyses ont révélé trois résultats importants. Premièrement, d’un point de vue psychométrique, l’EASE-PVVIH est un outil fiable et valide pour mesurer les attitudes stigmatisantes envers les personnes vivant avec le VIH. Deuxièmement, sous une certaine forme caractérisée par l’inquiétude éprouvée lors de rencontres occasionnelles, les attitudes stigmatisantes par rapport aux personnes vivant avec le VIH semblent nuire au recours au test de dépistage dans la population générale au Québec. Troisièmement, un dispositif participatif en particulier, soit un comité consultatif, semble être un moyen pour favoriser le réinvestissement rapide et étendre la portée des résultats produits par la recherche dans des actions concrètes de santé publique. Conclusion : Ces résultats mettent en lumière la portée d’un dispositif participatif pour la validation d’instrument de mesure. L’arrimage entre les préoccupations scientifiques et pratiques apparaît être une avenue prometteuse pour améliorer la qualité et la pertinence sociale des données produites par les mesures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec Michèle Prévost (Ph.D), Professeure titulaire au département des génies civil, géologique et des mines de l'École Polytechnique de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une perspective d’analyse des risques pour la santé publique, l’estimation de l’exposition revêt une importance capitale. Parmi les approches existantes d’estimation de l’exposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et le sélénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et le sélénium réduisant potentiellement ces effets toxiques, et de l’existence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de l’exposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de l’exposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de l’exposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire de sélénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelle réelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publiées dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques de sélénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. L’ensemble de ces résultats de recherche montre que la méthode choisie pour évaluer l’exposition a un impact important sur les estimations des risques associés. De plus, les recherches menées ont permis de mettre en évidence que le sélénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour l’estimation de la charge corporelle réelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations de sélénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tumeurs solides sont infiltrées par des cellules immunes (TIIC) dont la nature, la fonction et la composition varient d’un patient à l'autre. Ces cellules inflammatoires influencent l'invasion tumorale en contrôlant la croissance et le potentiel métastatique d’une tumeur. Ainsi, il est proposé d’utiliser cette infiltration comme outil diagnostic et pronostic de routine. Certaines cellules sont bien connues pour jouer un rôle important dans le contrôle de la progression tumorale, comme c’est le cas des lymphocytes T cytotoxiques CD8+ alors que d’autres possèdent un rôle contradictoire. Étant donné la dépendance des tumeurs sur l’équilibre entre ces différentes cellules, il est important d’identifier les fonctions précises des cellules immunes au sein de la tumeur. De nombreuses études sont réalisées afin d’identifier des marqueurs descriptifs du phénotype et la fonction des cellules immunes dans la tumeur. Ce projet de doctorat se divise en deux parties : 1- Identifier la méthode de désagrégation des tissus tumoraux altérant le moins la biologie des TIIC pour leur caractérisation. 2- Caractériser l’expression de la molécule d’adhérence CD146 dans les TIIC et en identifier l’origine. L’identification de marqueurs pour la caractérisation phénotypique et fonctionnelle des TIIC a été réalisée, entre autres, par la détection de protéines exprimées par la cellule. Dans la première partie de ce projet, nous avons démontré que les méthodes utilisées pour désagréger les tissus tumoraux dans le but d’isoler les TIIC induisent des changements dans la biologie de ces cellules ce qui peut fausser les conclusions qui en dérivent. Nous avons donc comparé l'impact de trois méthodes de désagrégation : une dissociation mécanique utilisant la MédimachineTM et deux digestions enzymatiques utilisant une collagénase de type I seule ou combinée à de la collagénase de type IV et de la DNase I de type II. Nous nous sommes intéressés à l'effet de ces méthodes sur des paramètres tels que la viabilité cellulaire, l’altération des protéines de surface et la capacité des cellules à proliférer. Nous avons démontré que ces méthodes affectent la viabilité des cellules de manière comparable, alors que la détection de certaines protéines de surface et la capacité de proliférer est réduite/inhibée par les traitements enzymatiques. Nous concluons qu’une méthode mécanique utilisant la MédimachineTM est mieux adaptée à la caractérisation des TIIC afin de conserver leurs propriétés. Dans la deuxième partie de notre projet, nous avons adapté cette méthode à la caractérisation des TIIC. Nous avons porté une attention particulière à la molécule d’adhérence CD146 dont l’implication dans la migration des cellules immunes à travers l’endothélium vers les sites d’inflammation est de plus en plus étudiée dans les maladies autoimmunes. Nous avons mis en évidence une augmentation des proportions de cellules immunes exprimant CD146 dans les tumeurs comparativement au sang de patients de cancers. Cette expression est induite par les cellules tumorales tout en étant accrue par la nécrose de celles-ci. Nous démontrons que ces cellules sont majoritairement des lymphocytes T CD4+ présentant un profil immunosuppressif. En conclusion, nos résultats suggèrent que CD146 participe à la mise en place du contexte immunitaire dans la tumeur et augmente la capacité de migration des lymphocytes T CD4+. L’induction par les cellules tumorales de cette molécule d’adhérence dans les cellules suppressives pourrait contribuer aux mécanismes immunorégulateurs mis en place par la tumeur. CD146 pourrait être un marqueur d’intérêt pour l’identification des cellules immunosuppressives et pour le développement de nouvelles thérapies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis written in co-mentorship with director: Nelly Huynh; co-directors: Frank Rauch and Jean-Marc Retrouvey; collaborators: Clarice Nishio, Duy-Dat Vu and Nathalie Alos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La présente étude explore pour la première fois en Afrique, l'association entre l'exposition aux pesticides organochlorés (POC) et le risque de diabète de type 2. L’étude se déroule dans la région du Borgou, au nord du Bénin, où l’utilisation intense de pesticides pour la culture du coton coïncide avec une prévalence élevée du diabète par rapport aux autres régions du pays. Objectifs: 1) Décrire le niveau d’exposition de la population des diabétiques et non diabétiques du Borgou par le taux sérique de certains pesticides organochlorés ; 2) Explorer la relation entre le risque de diabète de type 2 et les concentrations sériques des POC; 3) Examiner l’association entre l’obésité globale, le pourcentage de masse grasse et l’obésité abdominale avec les concentrations sériques des POC; 4) Explorer la contribution de certaines sources d’exposition alimentaire et non-alimentaire aux concentrations sériques des POC. Méthodes : Il s'agit d'une étude cas-témoin qui concerne 258 adultes de 18 à 65 ans identifiés par deux valeurs glycémiques capillaire et veineuse au seuil de 7 mmol/l pour les diabétiques et 5,6mmol/l pour les témoins non diabétiques. Les 129 témoins ont été appariés aux 129 cas selon les critères suivants : l’ethnie, l’âge ± 5ans, le sexe et la localité de résidence. Les informations personnelles et celles portant sur les modes d’exposition ont été recueillies par questionnaire. Les concentrations sériques des POC ont été obtenues par chromatographie gazeuse couplée d’une spectrométrie de masse. L’obésité globale est déterminée par l’IMC ≥ 30 kg/m2. L’obésité abdominale est obtenue par le tour de taille selon les critères consensuels d’Alberti et al. pour la définition du syndrome métabolique. Le pourcentage de masse corporelle a été mesuré par bio-impédance électrique et été considéré comme élevé au seuil de 33% chez les femmes et 25% chez les hommes. Résultats: En comparant les 3ème et premier terciles des concentrations de p,p’-DDE et p,p’-DDT, les sujets du 3e tercile étaient deux à trois fois plus susceptibles de présenter du diabète que ceux du 1er tercile. La probabilité d’obésité abdominale ou de l’obésité générale (en contrôlant pour le statut diabétique) était accrue de trois à cinq fois dans le dernier tercile pour trois des quatre POC qui étaient détectables soit p,p’-DDT, β-HCH et trans-Nonachlore. Les facteurs socioéconomiques associés aux POC sériques sont le niveau d’éducation élevé, un meilleur revenu et la résidence en milieu urbain. Les sources d’exposition non alimentaire significativement associées aux concentrations sériques de POC étaient l’exposition professionnelle mixte (primaire et secondaire) aux pesticides et la consommation de tabac local. L’achat en opposition à l’autoproduction de plusieurs groupes de denrées alimentaire était associé à de plus fortes teneurs de POC. La fréquence de consommation hebdomadaire du poisson, des légumes, du fromage, de l’igname séchée ainsi que du mil, de l’huile de palme et de certaines légumineuses comme le soya, le néré, le niébé et le voandzou était significativement associées aux POC sériques. Conclusion : L’étude a mis en évidence la relation entre le niveau sérique de pesticides organochlorés d’une part, du diabète ou de l’obésité d’autre part. Les concentrations de POC observées au Borgou sont assez élevées et méritent d’être suivies et comparées à celles d’autres régions du pays. Les facteurs contribuant à ces teneurs élevées sont le niveau d’éducation élevé, un meilleur revenu, la résidence en milieu urbain, l’achat et la fréquence de consommation de plusieurs aliments. La contribution du mélange des polluants auxquels les habitants de cette région sont exposés à la prévalence croissante du diabète mérite d’être examinée, notamment les pesticides utilisés actuellement dans la région pour les productions de rente et autres polluants persistants. Ces résultats contribuent à accroître les connaissances sur les facteurs de risque émergents pour le diabète que sont des polluants environnementaux comme les pesticides. Les implications pour la santé publique sont importantes tant pour la prévention des maladies chroniques que pour la sensibilisation des autorités politiques du pays pour une politique agricole et sanitaire adéquate visant la réduction de l’exposition aux pesticides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En cette ère que plusieurs surnomment le « Web 2.0 », les usagers se sont emparés avec enthousiasme des fonctions liées aux communications et au partage sur Internet, ce médium devenant ainsi une nouvelle plate-forme pour les enjeux liés à la vie privée et à la réputation. La diffamation constitue justement un des problèmes prédominants constatés en lien avec ce contenu électronique, plus particulièrement lorsqu’il est question de contenu généré par les utilisateurs. Face à cet outil permettant une diffusion et une intéractivité sans précédent, comment devons-nous aborder Internet au regard des règles de droit applicables au Canada en matière de diffamation? L’analyse juridique traditionnelle sied-elle aux nouvelles réalités introduites par ce médium? Le bijuridisme canadien nous impose d’étudier parallèlement les régimes de droit civil et de common law et ce, dans une optique comparative afin de comprendre les concepts et le fonctionnement propres à chacune des approches juridiques cohabitant au pays. Cette analyse nous permettra de mettre en lumière les particularités du médium électronique qui se révèlent pertinentes lorsqu’il est question de diffamation et qui font la spécificité des situations et des acteurs en ligne, distinguant ainsi Internet des modes de communications traditionnels que le droit connaît. Cette approche comparative permet de poser un regard critique sur chacun des régimes de droit en vigueur au Canada, considérant la réalité propre à Internet et au contenu généré par les utilisateurs, mais surtout, vise à promouvoir le développement de méthodes d’analyse véritablement ancrées dans le fonctionnement du médium en cause et susceptibles d’évoluer avec celui-ci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La douleur est une expérience multidimensionnelle comportant des aspects sensoriels, émotionnels et cognitifs. Théoriquement, des méthodes de mesures comportementales, physiologiques, neurophysiologiques et sensorielles peuvent quantifier la douleur. Peu d’études ont étudié la validation des mesures utilisées en médecine vétérinaire. La recherche combine les travaux de Maîtrise et de Doctorat, traite en partie de la validité de méthodes. Dans cet objectif, nos travaux de recherche étudiaient la validité de méthodes comportementales, physiologiques et neurophysiologiques usuelles pour la mesure de la douleur en comparant les expressions de douleur (vache et chien) chez des animaux contrôle par comparaison à des animaux sous analgésie préventive ou sous traitement curatif suivant une douleur induite par chirurgie (modèles de douleur viscérale bovine ou orthopédique canine) ou causée par une maladie naturelle (arthrose canine). Une première étude comparait les mesures de la douleur entre les vaches du groupe placebo et celles sous analgésie postopératoire sur une durée de 21 jours suivant l’induction d’une douleur viscérale chronique. Les vaches du groupe placebo ont présenté une plus forte sensibilité à la douleur et une diminution de la noradrénaline et de la transthyrétine mesurées dans le liquide cérébro-spinal, une diminution de l’activité motrice (AM) (moindre que dans les groupes avec analgésie), de l’agitation enregistrée par vidéo-analyse et une augmentation du stress selon la mesure de l’activité électrodermique (AED). Les méthodes d’intérêt identifiées étaient les marqueurs spinaux, la mesure de la sensibilisation, de comportements par vidéo-analyse et de l’AM par bio-télémétrie. En utilisant des méthodes semblables à celles précédemment décrites, deux études expérimentales de douleur orthopédique ont été réalisées afin de comparer les réponses à la douleur entre des chiens traités avec une analgésie préventive (opioïdes et anti-inflammatoires, étude #2) ou un biphosphonate (tiludronate, étude #3) par comparaison à des chiens contrôles. Seules les échelles de douleur étaient différentes entre les études de recherche. Pour l’étude #2, les ii chiens sous analgésie ont présenté de plus faibles scores de douleur mesurés avec l’échelle de douleur nommée 4A-VET et ceci simultanément à une faible réponse de l’AED une heure après la chirurgie de trochléoplastie. La fréquence du comportement spontané de ‘la marche avec plein appui de la patte opérée’ mesurée à l’aide de la vidéo-analyse augmentait chez les chiens sous analgésie préventive 24 heures après la chirurgie. L’étude #3 démontrait surtout l’apparition de sensibilisation centrale (à la fois par l’évaluation sensorielle quantitative et les marqueurs spinaux) chez les chiens contrôle, 56 jours après l’induction d’arthrose chirurgicale. Ainsi, les chiens traités avec le tiludronate ont présenté une différence sur la substance P et la transthyrétine cérébro-spinale, une diminution de la sensibilisation périphérique, plus d’appui de la patte opérée lors de la marche selon la mesure du pic de force verticale (PFV), une augmentation de la fréquence de ‘la marche avec plein appui de la patte opérée’. La sensibilisation centrale était associée à la diminution de PFV, et une augmentation de l’AED et du comportement spontané de ‘la marche avec plein appui de la patte opérée’. Pour l’étude #4, la validité et la sensibilité des méthodes ont été évaluées dans une condition d’arthrose naturelle chez des chiens traités avec une diète enrichie en moule verte, un produit ayant des effets anti-inflammatoires et chondroprotecteurs attendus. Les chiens traités présentaient une diminution des scores de douleur via l’échelle nommée CSOM, une augmentation de PFV et une augmentation de l’AM. Dans l’ensemble, les résultats confirment que la vidéo-analyse évaluait la douleur de façon objective et pour des modèles différents de douleur et les marqueurs spinaux sont prometteurs. Le PFV était spécifique de la douleur orthopédique. La sensibilisation était présente lors de douleur pathologique. L’AED n’est pas valide pour la mesure de la douleur. La baisse d’AM suggèrerait un comportement de douleur. Les études étaient exploratoires pour les échelles de douleur en raison de leur niveau (débutant) de développement et du manque d’informations sur les qualités métrologiques de ces mesures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Au Canada, le cancer de la prostate est le cancer le plus fréquemment diagnostiqué chez les hommes et le plus mortel après les cancers du poumon et du côlon. Il y a place à optimiser le traitement du cancer de la prostate de manière à mettre en œuvre une médecine personnalisée qui s’adapte aux caractéristiques de la maladie de chaque patient de façon individuelle. Dans ce mémoire, nous avons évalué la réponse aux dommages de l’ADN (RDA) comme biomarqueur potentiel du cancer de la prostate. Les lésions potentiellement oncogènes de l'ADN déclenche une cascade de signalisation favorisant la réparation de l'ADN et l’activation des points de contrôle du cycle cellulaire pour préserver l’intégrité du génome. La RDA est un mécanisme central de suppression tumorale chez l’homme. La RDA joue un rôle important dans l’arrêt de la prolifération des cellules dont les génomes sont compromis, et donc, prévient la progression du cancer en agissant comme une barrière. Cette réponse cellulaire détermine également comment les cellules normales et cancéreuses réagissent aux agents utilisés pour endommager l'ADN lors du traitement du cancer comme la radiothérapie ou la chimiothérapie, en plus la présence d,un certain niveau de RDA dans les cellules du cancer de la prostate peuvent également influer sur l'issue de ces traitements. L’activation des signaux de la RDA peut agir comme un frein au cancer dans plusieurs lésions pré-néoplasiques de l'homme, y compris le cancer de la prostate. Il a été démontré que la RDA est augmentée dans les cellules de néoplasie intra- épithéliale (PIN) comparativement aux cellules prostatiques normales. Toutefois, le devient de la RDA entre le PIN et l’adénocarcinome est encore mal documenté et aucune corrélation n'a été réalisée avec les données cliniques des patients. Notre hypothèse est que les niveaux d’activation de la RDA seront variables selon les différents grades et agressivité du cancer de la prostate. Ces niveaux pourront être corrélés et possiblement prédire les réponses cliniques aux traitements des patients et aider à définir une stratégie plus efficace et de nouveaux biomarqueurs pour prédire les résultats du traitement et personnaliser les traitements en conséquence. Nos objectifs sont de caractériser l'activation de la RDA dans le carcinome de la prostate et corréler ses données avec les résultats cliniques. Méthodes : Nous avons utilisé des micro-étalages de tissus (tissue microarrays- TMAs) de 300 patients ayant subi une prostatectomie radicale pour un cancer de la prostate et déterminé le niveau d’expression de protéines de RDA dans le compartiment stromal et épithélial des tissus normaux et cancéreux. Les niveaux d’expression de 53BP1, p-H2AX, p65 et p-CHK2 ont été quantifiés par immunofluorescence (IF) et par un logiciel automatisé. Ces marqueurs de RDA ont d’abord été validés sur des TMAs-cellule constitués de cellules de fibroblastes normales ou irradiées (pour induire une activation du RDA). Les données ont été quantifiées à l'aide de couches binaires couramment utilisées pour classer les pixels d'une image pour que l’analyse se fasse de manière indépendante permettant la détection de plusieurs régions morphologiques tels que le noyau, l'épithélium et le stroma. Des opérations arithmétiques ont ensuite été réalisées pour obtenir des valeurs correspondant à l'activation de la RDA qui ont ensuite été corrélées à la récidive biochimique et l'apparition de métastases osseuses. Résultats : De faibles niveaux d'expression de la protéine p65 dans le compartiment nucléaire épithélial du tissu normal de la prostate sont associés à un faible risque de récidive biochimique. Par ailleurs, nous avons aussi observé que de faibles niveaux d'expression de la protéine 53BP1 dans le compartiment nucléaire épithéliale du tissu prostatique normal et cancéreux ont été associés à une plus faible incidence de métastases osseuses. Conclusion: Ces résultats confirment que p65 a une valeur pronostique chez les patients présentant un adénocarcinome de la prostate. Ces résultats suggèrent également que le marqueur 53BP1 peut aussi avoir une valeur pronostique chez les patients avec le cancer de la prostate. La validation d'autres marqueurs de RDA pourront également être corrélés aux résultats cliniques. De plus, avec un suivi des patients plus long, il se peut que ces résultats se traduisent par une corrélation avec la survie. Les niveaux d'activité de la RDA pourront éventuellement être utilisés en clinique dans le cadre du profil du patient comme le sont actuellement l’antigène prostatique spécifique (APS) ou le Gleason afin de personnaliser le traitement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.