23 resultados para path formulation
Resumo:
Le réveil de la question de l’Être fut le grand leitmotiv de la pensée de Martin Heidegger. Or cette question ne trouve pas la même formulation de Sein und Zeit jusqu’aux derniers écrits. En effet, si l’œuvre maîtresse du penseur prépare le terrain pour un questionnement sur le langage et la parole authentique, elle ne rattache pas explicitement la problématique de l’Être à celle de la poésie. À partir du milieu des années trente, un tournant se fera jour : la poésie deviendra un partenaire privilégié dans la mise en œuvre de la question de l’Être. Cette tendance de pensée se radicalisera dans les décennies ultérieures, où la compréhension du langage véritable comme poème deviendra de plus en plus centrale. À quoi tient ce rôle imparti au discours poétique dans l’œuvre de Heidegger? Quelle place occupe le dire poétique dans le cadre plus large d’une herméneutique philosophique tournée vers l’aspect langagier de toute existence? Comment comprendre le lien entre une pensée de l’Ereignis, du Quadriparti et de la fondation de l’Être à travers le dire du poète? Enfin, quels parallèles faut-il dresser entre les tâches respectives du penseur et du poète dans le contexte d’un dialogue authentique? Ces questions guideront notre parcours et traceront la voie d’une interprétation dont l’accent portera sur les thèmes privilégiés du dépassement du langage conceptuel de la philosophie, de la place déterminante du Sacré et de la responsabilité insigne du poète et du penseur dans le projet de la garde de l’Être. Notre objectif sera d’éclaircir le sens de ce recours à la poésie afin de mieux comprendre en quoi Heidegger a pu trouver dans un tel dialogue les ressources nécessaires qui alimenteront l’élan de son unique quête : une approche authentique du sens de l’Être, de son alètheia et de son topos. On sait l’importance de ce dialogue : estimant que la métaphysique s’était caractérisée par un « oubli de l’être » (Seinsvergessenheit), Heidegger juge qu’une autre pensée (das andere Denken) reste malgré tout possible, mais qu’elle aurait à se déployer en tant que dialogue entre pensée et poésie.
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.
Resumo:
L’objectif de ce projet était de développer une formulation liquisolide (LS) de clozapine ayant des propriétés de dissolution améliorées et évaluer sa stabilité et ainsi que sa robustesse à la modification d’excipients. Le propylène glycol (PG), la cellulose microcrystalline (MCC) et le glycolate d’amidon sodique (SSG) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse et agent désintégrant pour la préparation de comprimés LS. Le dioxyde de silicium colloïdal (CSD), le silicate de calcium (CS) et l'aluminométasilicate de magnésium (MAMS) ont été choisis comme agents d’enrobage sec. La caractérisation complète des mélanges et des comprimés a été effectuée. Le taux de libération des comprimés LS était statistiquement supérieur à celui des comprimés réguliers. La surface spécifique des matériaux d’enrobage avait un effet sur les propriétés d’écoulement des mélanges et la taille des particules des matériaux d’enrobage a eu un effet sur la vitesse de dissolution. Le ratio support/enrobage du mélange de poudres (valeur de R) était un paramètre important pour les systèmes LS et devait être plus grand que 20 afin d’obtenir une meilleure libération du médicament. La formulation choisie a démontré une stabilité pour une période d’au moins 12 mois. La technique LS s’est avéré une approche efficace pour le développement de comprimés de clozapine ayant des propriétés de dissolution améliorées. Les comprimés oro-dispersibles (ODT) sont une formulation innovante qui permettent de surmonter les problèmes de déglutition et de fournir un début d'action plus rapide. Dans l’optique d’améliorer les propriétés de dissolution, un essai a été effectué pour étudier la technique LS dans la formulation des ODT de clozapine. Le PG, la MCC, le CSD et la crospovidone (CP) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse, agent d’enrobage sec et agent superdésintégrant pour la préparation de comprimés oro-dispersibles liquisolides (OD-LST). Le mannitol a été choisi comme agent de masse et agent édulcorant. La saccharine de sodium a été utilisée comme agent édulcorant. La caractérisation complète des comprimés a été effectuée. Le taux de libération des OD-LSTs était statisquement supérieur comparativement aux comprimés ODTs. La formulation choisie a démontré une stabilité pour une période d’au moins 6 mois. Il a été conclu que des ODT de clozapine peuvent être préparés avec succès en utilisant la technologie LS dans le but d’améliorer la désintégration et le taux de dissolution de la clozapine dans la cavité orale.
Resumo:
Background: Literature on scoliosis screening is vast, however because of the observational nature of available data and methodological flaws, data interpretation is often complex, leading to incomplete and sometimes, somewhat misleading conclusions. The need to propose a set of methods for critical appraisal of the literature about scoliosis screening, a comprehensive summary and rating of the available evidence appeared essential. METHODS: To address these gaps, the study aims were: i) To propose a framework for the assessment of published studies on scoliosis screening effectiveness; ii) To suggest specific questions to be answered on screening effectiveness instead of trying to reach a global position for or against the programs; iii) To contextualize the knowledge through expert panel consultation and meaningful recommendations. The general methodological approach proceeds through the following steps: Elaboration of the conceptual framework; Formulation of the review questions; Identification of the criteria for the review; Selection of the studies; Critical assessment of the studies; Results synthesis; Formulation and grading of recommendations in response to the questions. This plan follows at best GRADE Group (Grades of Recommendation, Assessment, Development and Evaluation) requirements for systematic reviews, assessing quality of evidence and grading the strength of recommendations. CONCLUSIONS: In this article, the methods developed in support of this work are presented since they may be of some interest for similar reviews in scoliosis and orthopaedic fields.
Resumo:
L'objectif de ce mémoire est de jeter les bases d'un nouveau récit historique portant sur les relations internationales du Québec, en rupture partielle avec le récit traditionnel, essentiellement issu des écrits provenant de la science politique, qui décrit l'activité internationale du gouvernement québécois en cherchant dans les particularités de l'histoire québécoise elle-même les forces de changement. Ce faisant, nous tentons plutôt de montrer que l'histoire des relations internationales du Québec est inexorablement enchâssée dans l'histoire canadienne, dans l'histoire nord-américaine et surtout dans l'histoire du capitalisme et du néolibéralisme. Depuis le début de son existence en tant qu'entité politique moderne, le gouvernement québécois entretient des liens avec des gouvernements étrangers, l'intensité de ceux-ci étant function des grandes transformations affectant le système capitaliste international au grand complet. Vers la fin de la période 1867-1973, la politique internationale du gouvernement québécois est institutionnalisée politiquement et juridiquement grâce à la formulation de la doctrine Gérin-Lajoie, qui s'appuie sur les dispositions constitutionnelles propres au Canada pour élaborer la politique internationale québécoise. Dans la période 1973-1981, les relations internationales du Québec se focalisent davantage sur des questions économiques, telles que la quête de capitaux étrangers et la projection d'une image de marque positive sur les marchés étrangers. Puis, dans la période 1981-1994, l'activité internationale du Québec est marquée par le virage néolibéral qui affecte tous les gouvernements capitalistes dans le monde. Ainsi, l'appareil diplomatique du Québec est de plus en plus perçu comme un outil de promotion des exportations des entreprises québécoises et d'adaptation à l'augmentation de l'interdépendance économique, et de moins en moins comme un réseau de contacts politiques et culturels. Afin de faire cette démonstration, nous puisons essentiellement dans deux types de sources primaires : d'une part, des sources gouvernementales, dont les rapports annuels des différents ministères associés aux relations internationales du Québec et du Canada au fil de la période et les livres blancs de politique internationale qu'ils ont publié, et d'autre part, des publications issues du milieu des affaires, dont la revue Les Affaires, excellent baromètre de la mentalité dominante de la classe entrepreneuriale du Québec et du Canada francophone.
Resumo:
Le problème de la non-identité est une difficulté sérieuse qui ne peut pas être ignorée par les théories de justice intergénérationnelle dans la mesure où ce problème tend à remettre en cause l'idée de responsabilité envers les générations futures. C'est dans ces conditions que ce texte propose d'éprouver le problème de la non-identité en faisant ressortir les concepts qui semblent y être sous-tendus et articulés d'une façon particulière, à savoir les concepts de réalité et de possibilité. Or, il apparaît que la philosophie hégélienne arrive à point nommé pour exprimer l'articulation qui se joue entre réalité et possibilité dans le problème en question. De cette façon, Hegel apparaît comme étant un interlocuteur privilégié pour expliciter ce que recouvre le problème de la non-identité.