538 resultados para Publis


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre la publication de La volonté de savoir en 1976 et les derniers ouvrages publiés en 1984, un certain silence recouvre l’œuvre de Michel Foucault. Mais cet apparent mutisme s’estompe aujourd’hui, grâce à la publication et à la réception progressive de ses cours — notamment ceux professés au Collège de France en 1977-1978. Ils nous permettent en effet de porter un regard nouveau sur le parcours philosophique de Foucault, éclairant tout le pan d’une œuvre qui allait par la suite s’enrichir d’un êthos éthico-critique. En ce sens, il nous a semblé important de revenir sur quelques unes des notions-clés qui conditionneront ses derniers travaux. Ainsi, nous nous proposons à la fois d’esquisser la genèse du biopouvoir ­ qui s’articule autour du « concept » capital de population ­ et de décrire les traits généraux des dispositifs de sécurité : thèmes qui offrent une résonance toute contemporaine et qui permettent de problématiser le présent de notre avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente le résultat de plusieurs années de recherche dans le domaine de la génération automatique de résumés. Trois contributions majeures, présentées sous la forme d'articles publiés ou soumis pour publication, en forment le coeur. Elles retracent un cheminement qui part des méthodes par extraction en résumé jusqu'aux méthodes par abstraction. L'expérience HexTac, sujet du premier article, a d'abord été menée pour évaluer le niveau de performance des êtres humains dans la rédaction de résumés par extraction de phrases. Les résultats montrent un écart important entre la performance humaine sous la contrainte d'extraire des phrases du texte source par rapport à la rédaction de résumés sans contrainte. Cette limite à la rédaction de résumés par extraction de phrases, observée empiriquement, démontre l'intérêt de développer d'autres approches automatiques pour le résumé. Nous avons ensuite développé un premier système selon l'approche Fully Abstractive Summarization, qui se situe dans la catégorie des approches semi-extractives, comme la compression de phrases et la fusion de phrases. Le développement et l'évaluation du système, décrits dans le second article, ont permis de constater le grand défi de générer un résumé facile à lire sans faire de l'extraction de phrases. Dans cette approche, le niveau de compréhension du contenu du texte source demeure insuffisant pour guider le processus de sélection du contenu pour le résumé, comme dans les approches par extraction de phrases. Enfin, l'approche par abstraction basée sur des connaissances nommée K-BABS est proposée dans un troisième article. Un repérage des éléments d'information pertinents est effectué, menant directement à la génération de phrases pour le résumé. Cette approche a été implémentée dans le système ABSUM, qui produit des résumés très courts mais riches en contenu. Ils ont été évalués selon les standards d'aujourd'hui et cette évaluation montre que des résumés hybrides formés à la fois de la sortie d'ABSUM et de phrases extraites ont un contenu informatif significativement plus élevé qu'un système provenant de l'état de l'art en extraction de phrases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les historiens qui se sont consacrés à l’étude de l’Allemagne contemporaine, plusieurs considèrent qu’en perpétrant un crime aussi barbare que la Shoah, le Troisième Reich a provoqué une « rupture de civilisation » (Zivilisationsbruch) au sein de l’histoire occidentale. En règle générale, ces spécialistes ont réfléchi sur le sens ainsi que sur les implications historiques et philosophiques de cet événement pour le monde contemporain. Peu d’entre eux, toutefois, se sont intéressés au pendant de cette « rupture de civilisation » : le processus de « recivilisation » qui a été à l’œuvre dans la société ouest-allemande au cours des premières décennies d’après-guerre. Caractérisé par le rejet de la violence et du militarisme, par la restauration des normes élémentaires de la civilité ainsi que par l’importance croissante accordée à des valeurs telles que la démocratie et le respect des droits de la personne, ce processus permet en grande partie d’expliquer comment, en à peine deux décennies, les Allemands de l’Ouest ont réussi à édifier un État stable et démocratique sur les ruines d’une dictature génocidaire. En étudiant la présentation du Décalogue dans les catéchismes catholiques, ce mémoire cherche à déterminer le rôle attribué aux prescriptions morales de nature religieuse dans le processus de « recivilisation » de la société ouest-allemande. Il se propose de montrer qu’au cours des années 1950 et 1960, les catéchismes catholiques publiés en RFA ont présenté de plus en plus d’indices d’une volonté que l’on pourrait qualifier de « recivilisatrice ». Ces indices ont surtout pris la forme d’une attention grandissante aux questions relatives à la guerre et à la paix, d’un assouplissement dans la présentation de l’autorité parentale et de l’adoption d’une conception de l’autorité civile fondée désormais sur l’accomplissement de devoirs civiques plutôt que sur l’obéissance aux supérieurs hiérarchiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L’Accident Vasculaire Cérébral (AVC) constitue une des principales causes de décès et de handicap au monde. La guérison après l’AVC ainsi que l’atténuation du handicap dépendent entre autres de la rapidité du diagnostic ainsi que de la mise en place de traitements et des soins très spécialisés. Afin de guider la pratique clinique et de fonder cette pratique sur des résultats probants, des guides de pratique clinique (GPC) ont été publiés et disséminés en Catalogne en 2005. De plus, trois audits explorant les soins hospitaliers aigus ont été réalisées en 2005, 2007 et 2010 afin d’évaluer et améliorer le suivi des recommandations proposées dans les GPC. Le suivi de ces recommandations, dont certaines font référence aux soins infirmiers, a été mesuré à l’aide d’un nombre limité d’indicateurs. L’analyse de ces indicateurs, qui a été réalisée de façon globale, n’a toutefois pas permis d’identifier les facteurs influençant le suivi des recommandations en soins infirmiers ni l’impact de ce suivi sur les résultats concernant la santé des patients. Ainsi, le but général de cette étude est d’analyser les indicateurs de la qualité des soins infirmiers aux personnes ayant subi un AVC en Catalogne. Plus spécifiquement, il vise à : 1) décrire le suivi des recommandations en soins infirmiers aux personnes ayant subi un AVC en 2010 en Catalogne, mesuré à l’aide de six indicateurs spécifiques aux soins infirmiers; 2) analyser l’évolution de ce suivi entre 2005, 2007 et 2010; 3) identifier des facteurs susceptibles d’avoir influencé ce suivi en 2010; et 4) analyser la relation entre le suivi de ces recommandations et les résultats concernant la santé des patients. Une analyse secondaire des données a été faite à partir des données de l’audit de 2010. Cet audit a été réalisé dans 46 des 49 hôpitaux publics en Catalogne et comprend un échantillon de 2 190 cas représentant une population de 10 842 cas. Les résultats indiquent que le suivi des recommandations portant sur l’ECG basal, la glycémie basale et la mobilisation précoce est élevé. Le suivi de la recommandation portant sur la dysphagie s’est amélioré à travers les trois audits, mais il demeure sous-optimal. Et le suivi des recommandations portant sur l’évaluation de l’humeur et l’éducation à la personne famille est très faible. En ce qui concerne les facteurs qui semblent influencer le suivi de ces recommandations, les résultats ajustés pour les caractéristiques et la sévérité des patients montrent un suivi majeur de la recommandation en lien avec le dépistage de la dysphagie chez les personnes admises en neurologie et dans les centres de plus de 300 admissions pour AVC /année ainsi que chez les patients présentant une dysphagie. De plus, la durée du séjour hospitalier a été plus longue chez les patients dont l’évaluation de l’humeur a été faite et plus courte chez les patients mobilisés de façon précoce. Bien que, le suivi de certaines recommandations demeure très bas, ces résultats indiquent une amélioration progressive du suivi des recommandations en soins infirmiers, et donc de la qualité des soins, et soulignent l’utilité de l’audit pour surveiller et améliorer la qualité des soins de l’AVC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les parasporines sont des toxines Cry du bacille de Thuringe actives contre des cellules tumorales. Ce travail montre que la parasporine PS1Aa2 (Cry31Aa2) forme des pores dans des membranes artificielles, comme de nombreuses toxines Cry. Ceux-ci ont plusieurs niveaux de conductance dont les plus fréquents étaient de 11, 16 et 21 pS dans une solution de 150 mM KCl. Nos résultats de microspectrofluorométrie avec la sonde Fura-2 montrent que la présence de la PS1Aa2 peut produire des augmentations du calcium intracellulaire, la plupart du temps sous la forme d’oscillations calciques et parfois des augmentations soutenues. Ces réponses ont été observées en présence et en absence de calcium extracellulaire, dans les lignées tumorales HeLa et HepG2 et dans la lignée non tumorale HEK 293. Bien que quelques études aient montré que le calcium semble intervenir dans leur mode d’action, de telles oscillations calciques n’ont jamais été décrites auparavant pour des toxines Cry. Les expériences ont dû être faites à des concentrations beaucoup plus élevées de toxine que prévues sur la base des résultats publiés de cytotoxicité. Malgré la présence des fragments identifiés auparavant comme actifs, sa faible efficacité semble liée à la présence d’ADN dans les préparations qui entraîne la précipitation de la protéine. Les travaux futurs sur cette toxine seraient donc grandement facilités par une amélioration de sa méthode de préparation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1)Soraya Mamoun: soraya.mamoun@umontreal.ca 3)Sabine Saade, psychoéducatrice en troubles du spectre autistique Mark Chebli, neuropsychologue

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur les représentations qui ont circulé sur Internet avant et durant le mouvement historique et inattendu de révolte sociale au Brésil, pendant la Coupe des confédérations de 2013. La vague de manifestations a provoqué un débat passionné sur Internet à propos des méga-événements, mais des études sur ce phénomène récent sont encore absents de la littérature. La présente recherche est un effort de combler cette lacune en examinant le cas de la ville de Rio de Janeiro, qui accueillera la finale de la Coupe du monde de soccer de 2014 et sera la ville hôte des Jeux olympiques de 2016. Le but du travail est de comprendre quelles sont les représentations qui émergent des nouvelles en réseau au sujet des transformations et des conflits urbains dans le cadre des méga-événements. À partir d'une analyse logico-naturelle des documents publiés entre 2009 et 2013 sur des sites Web avec quatre profils communicationnels distincts, la recherche met en évidence dans quelle mesure les représentations sociales reproduisent (1) la stratégie de branding urbain de la part du gouvernement et (2) les stratégies de résistance civile de la part des populations affectées par les transformations urbaines. Du point de vue théorique et méthodologique, l'étude mobilise la notion de journalisme liquide, inspiré des travaux du sociologue Zygmunt Bauman, qui s’est concentré sur les conséquences culturelles, économiques et politiques de la mondialisation. Les résultats de l'analyse documentaire ont permis d'exposer les représentations sociales construites autour de trois thématiques centrales : les favelas, les expulsions forcées dans la ville de Rio de Janeiro et les manifestations de juin 2013. En plus d'une discussion théorique critique à propos des résultats, l'étude les confronte avec la littérature scientifique repérée dans la recension des écrits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presse coloniale hispano-américaine a joué un rôle significatif dans la propagation d’idées étrangères dans les colonies d’Amérique. Elle est devenue le porte-parole de certaines idéologies, lesquelles se sont renforcées par le biais de la traduction de nouvelles provenant surtout d’Europe et des États-Unis. Notre thèse porte sur les interventions du sujet traducteur dans la Gaceta de Caracas (GdC) du Venezuela. Publié de 1808 à 1822, ce périodique est le plus emblématique de l’époque émancipatrice. Créé pour diffuser des nouvelles et des idées pro-monarchie dans la province vénézuélienne, ce périodique dépasse ses objectifs premiers et témoigne des changements politiques, économiques et sociaux pendant le processus d’indépendance du pays qui, en quatorze ans, connaît successivement des périodes royalistes et des périodes républicaines. Comme les autres périodiques de la Province, la GdC a connu une importante activité traductive par l’emploi de sources étrangères (périodiques publiés en Europe, aux États-Unis et dans les Caraïbes). La traduction dans la GdC fait partie d’un projet politique, raison pour laquelle les traducteurs n’hésitent pas à s’en servir pour communiquer leurs idéaux. La traduction sert toutefois deux projets bien distincts dépendamment de l’étape politique que vit le pays : pendant l’époque royaliste, elle cherche à maintenir le pouvoir de la monarchie espagnole sur la colonie, tandis que durant l’époque patriotique, elle cherche à s’en libérer. Des études précédentes ponctuelles suggèrent que le traducteur de la GdC emploie une stratégie d’appropriation à des fins politiques et intervient délibérément dans le processus de traduction (Bastin, Navarro & Iturriza, 2010; Iturriza, 2011; Navarro, 2008, 2010, 2011). Dans le cadre des études descriptives de la traduction – EDT (Toury, 1995), nous étudions les choix traductionnels des rédacteurs-traducteurs. Plus précisément, nous examinons les raisons, les manifestations et les effets de ces choix afin de déterminer le rôle de la traduction dans le processus indépendantiste au Venezuela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La localisation des ARNm par transport dirigé joue un rôle dans le développement, la motilité cellulaire, la plasticité synaptique et la division cellulaire asymétrique. Chez la levure Saccharomyces cerevisiæ, la localisation d’ARNm est un phénomène dont les mécanismes de régulation sont conservés auprès de nombreux autres organismes. Lors de la division de la levure, plus d’une trentaine de transcrits sont localisés par transport actif à l’extrémité du bourgeon de la cellule-fille. Parmi ceux-ci, l’ARNm ASH1 est le mieux caractérisé et constitue le modèle utilisé dans cette étude. Pour exercer sa fonction, la protéine Ash1 doit être produite uniquement après la localisation de l’ARNm ASH1. Pour ce faire, les mécanismes de régulation de la traduction de l’ARNm ASH1 empêchent son expression durant le transport. Ce projet de recherche vise à étudier les mécanismes de régulation de la traduction de l’ARNm ASH1 par les répresseurs traductionnels connus, soit Khd1, Puf6 et Loc1. Les études antérieures se sont penchées sur ces facteurs de manière individuelle. Cependant, dans cette étude, nous avons exploré la présence d’une collaboration entre ceux-ci. Ainsi, nous avons voulu déterminer si les répresseurs traductionnels peuvent être intégrés en une seule voie de régulation de la traduction de l’ARNm ASH1. De plus, nous avons cherché à identifier le mécanisme de recrutement des répresseurs traductionnels sur l’ARNm ASH1, qui correspond au point initial des voies de régulations de l’ARNm ASH1. Nos résultats montrent que les répresseurs traductionnels de l’ARNm ASH1, soit Khd1 et Puf6, font partie d’une même voie de régulation de la traduction. Le rôle du facteur nucléaire Loc1 dans la voie de régulation de la traduction, quant à elle, a été examinée à partir d’expériences permettant l’étude du mécanisme de recrutement des répresseurs traductionnels dans le noyau. Ainsi, nos travaux montrent que Puf6 et Loc1 sont associés de manière ARN-dépendant avec la machinerie de transcription, notamment au facteur d’élongation de la transcription Spt4-Spt5/DSIF. Par ailleurs, notre laboratoire a précédemment montré que la localisation nucléaire de la protéine de liaison à l’ARN She2 est essentielle au recrutement des facteurs Loc1 et Puf6 sur l’ARNm ASH1. Des expériences d’immunoprécipitation de la chromatine (ChIP) supportent l’hypothèse que le recrutement de Loc1 est essentiel à celui de Puf6, qui s’effectue ultérieurement. Ainsi, à partir des résultats de cette étude et des résultats publiés précédemment dans notre laboratoire, nous avons élaboré un modèle de recrutement coordonné des facteurs She2, Loc1 et Puf6 sur l’ARNm ASH1 naissant. De manière générale, cette étude a permis d’établir la présence d’une seule voie de régulation de la traduction de l’ARNm ASH1 et une meilleure connaissance du recrutement des facteurs de répression traductionnelle sur celui-ci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.