992 resultados para Méthode constructive


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le manuscrit constituant l'annexe 1 a été publié en décembre 2013 sous la référence : Vaccine. 2013 Dec 9;31(51):6087-91.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La méthode de factorisation est appliquée sur les données initiales d'un problème de mécanique quantique déja résolu. Les solutions (états propres et fonctions propres) sont presque tous retrouvés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur le calcul de structures électroniques dans les solides. À l'aide de la théorie de la fonctionnelle de densité, puis de la théorie des perturbations à N-corps, on cherche à calculer la structure de bandes des matériaux de façon aussi précise et efficace que possible. Dans un premier temps, les développements théoriques ayant mené à la théorie de la fonctionnelle de densité (DFT), puis aux équations de Hedin sont présentés. On montre que l'approximation GW constitue une méthode pratique pour calculer la self-énergie, dont les résultats améliorent l'accord de la structure de bandes avec l'expérience par rapport aux calculs DFT. On analyse ensuite la performance des calculs GW dans différents oxydes transparents, soit le ZnO, le SnO2 et le SiO2. Une attention particulière est portée aux modèles de pôle de plasmon, qui permettent d'accélérer grandement les calculs GW en modélisant la matrice diélectrique inverse. Parmi les différents modèles de pôle de plasmon existants, celui de Godby et Needs s'avère être celui qui reproduit le plus fidèlement le calcul complet de la matrice diélectrique inverse dans les matériaux étudiés. La seconde partie de la thèse se concentre sur l'interaction entre les vibrations des atomes du réseau cristallin et les états électroniques. Il est d'abord montré comment le couplage électron-phonon affecte la structure de bandes à température finie et à température nulle, ce qu'on nomme la renormalisation du point zéro (ZPR). On applique ensuite la méthode GW au calcul du couplage électron-phonon dans le diamant. Le ZPR s'avère être fortement amplifié par rapport aux calculs DFT lorsque les corrections GW sont appliquées, améliorant l'accord avec les observations expérimentales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet article a précédemment été publié par la Revue du Barreau canadien.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette version de la thèse a été tronquée des certains éléments protégés par le droit d’auteur. Une version plus complète est disponible en ligne pour les membres de la communauté de l’Université de Montréal et peut aussi être consultée dans une des bibliothèques UdeM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’action humaine dans une séquence vidéo peut être considérée comme un volume spatio- temporel induit par la concaténation de silhouettes dans le temps. Nous présentons une approche spatio-temporelle pour la reconnaissance d’actions humaines qui exploite des caractéristiques globales générées par la technique de réduction de dimensionnalité MDS et un découpage en sous-blocs afin de modéliser la dynamique des actions. L’objectif est de fournir une méthode à la fois simple, peu dispendieuse et robuste permettant la reconnaissance d’actions simples. Le procédé est rapide, ne nécessite aucun alignement de vidéo, et est applicable à de nombreux scénarios. En outre, nous démontrons la robustesse de notre méthode face aux occultations partielles, aux déformations de formes, aux changements d’échelle et d’angles de vue, aux irrégularités dans l’exécution d’une action, et à une faible résolution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Plusieurs tests médicaux, comme celui du dépistage du cancer du sein, se basent sur l’observation de section tissulaire sous un microscope. Ces tests se basent sur l’interprétation d’un spécialiste et les résultats peuvent varier d’un expert à un autre dû la subjectivité des observations. L’utilisation d’une technique analytique offrant une quantification et une identification de cibles moléculaires dans une section tissulaire permettrait aux experts de produire des diagnostics plus objectifs et diminuerait possiblement le nombre de faux diagnostics. Les travaux présentés dans ce mémoire portent sur le développement d’une technique SPRi-MALDI-IMS permettant l’imagerie en deux dimensions de protéines contenues dans une section tissulaire. La MALDI-IMS est la technique de choix pour l’imagerie de biomolécules dans les sections tissulaires. Par contre, elle ne parvient pas à elle seule à quantifier de façon absolue le matériel adsorbé à la surface. Donc, le couplage de la MALDI-IMS avec la SPRi permet la quantification absolue de protéines en deux dimensions et crée une technique répondant aux besoins des experts médicaux. Pour ce faire, nous avons étudié, l’effet de la chimie de surface sur la nature et la quantité de matériel adsorbé à la surface du capteur. De plus, la cinétique de transfert des protéines du tissu vers le capteur a dû être optimisée afin de produire des empreintes correspondant au tissu d’origine, afin d’atteindre la gamme dynamique des instruments SPRi et MALDI-IMS. La technique résultante de ces optimisations permet d’obtenir les premières images quantitatives et qualitatives de protéines en deux dimensions d’une seule section tissulaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les neurones dopaminergiques (DA) de la substance noire compacte (SNc) et de l’aire tegmentaire ventrale (ATV) développent des contacts de type synaptique et non synaptique. Malgré de nombreux travaux sur la synaptogénèse en général, aucune méthode autre que la microscopie électronique, n’a été développée pour quantifier les varicosités synaptiques et asynaptiques issues des neurones DA. L’objectif principal de ce projet était de développer une méthode d’analyse et de quantification des varicosités synaptiques et asynaptiques des neurones DA. L’hypothèse proposée est qu’il devait être possible de détecter la présence de synapses en visualisant la colocalisation d’une protéine présynaptique telle que synaptotagmine 1 (SYT1) avec un marqueur post-synaptique tel que la postsynaptic density protein 95 (PSD95). Pour ce faire, nous avons préparé des cultures primaires de neurones DA à l’aide d’une lignée de souris transgéniques exprimant la protéine fluorescente verte (GFP) sous le contrôle du promoteur de la tyrosine hydroxyalse (TH). Nous avons ensuite visualisé les terminaisons axonales à l'aide de marquages immunocytochimiques de protéines pré et post-synaptiques. L’analyse quantitative des images a été effectuée avec le logiciel de traitement d’image Image-J. Nos résultats montrent que, via l’association d’un marqueur présynaptique tel que SYT1 avec un marqueur postsynaptique tel que PSD95, seule une minorité des terminaisons établies par les neurones DA sont de type synaptique. En contraste, des neurones glutamatergiques du cortex, établissent une majorité de terminaisons associées à un marqueur postsynaptique. Nos résultats valident donc la mise en place d'une technique d'analyse permettant de quantifier la proportion de terminaisons synaptiques et asynaptiques établies par les neurones DA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de ce projet était de faire le lien entre gènes et métabolites afin d’éventuellement proposer des métabolites à mesurer en lien avec la fonction de gènes. Plus particulièrement, nous nous sommes intéressés aux gènes codant pour des protéines ayant un impact sur le métabolisme, soit les enzymes qui catalysent les réactions faisant partie intégrante des voies métaboliques. Afin de quantifier ce lien, nous avons développé une méthode bio-informatique permettant de calculer la distance qui est définie comme le nombre de réactions entre l’enzyme encodée par le gène et le métabolite dans la carte globale du métabolisme de la base de données Kyoto Encyclopedia of Genes and Genomes (KEGG). Notre hypothèse était que les métabolites d’intérêt sont des substrats/produits se trouvant à proximité des réactions catalysées par l’enzyme encodée par le gène. Afin de tester cette hypothèse et de valider la méthode, nous avons utilisé les études d’association pangénomique combinées à la métabolomique (mGWAS) car elles rapportent des associations entre variants génétiques, annotés en gènes, et métabolites mesurés. Plus précisément, la méthode a été appliquée à l’étude mGWAS par Shin et al. Bien que la couverture des associations de Shin et al. était limitée (24/299), nous avons pu valider de façon significative la proximité entre gènes et métabolites associés (P<0,01). En somme, cette méthode et ses développements futurs permettront d’interpréter de façon quantitative les associations mGWAS, de prédire quels métabolites mesurer en lien avec la fonction d’un gène et, plus généralement, de permettre une meilleure compréhension du contrôle génétique sur le métabolisme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tridimensionnelle (3D) de la colonne vertébrale. Pour la plupart des patients atteints de SIA, aucun traitement chirurgical n’est nécessaire. Lorsque la déformation devient sévère, un traitement chirurgical visant à réduire la déformation est recommandé. Pour déterminer la sévérité de la SIA, l’imagerie la plus utilisée est une radiographie postéroantérieure (PA) ou antéro-postérieure (AP) du rachis. Plusieurs indices sont disponibles à partir de cette modalité d’imagerie afin de quantifier la déformation de la SIA, dont l’angle de Cobb. La conduite thérapeutique est généralement basée sur cet indice. Cependant, les indices disponibles à cette modalité d’imagerie sont de nature bidimensionnelle (2D). Celles-ci ne décrivent donc pas entièrement la déformation dans la SIA dû à sa nature tridimensionnelle (3D). Conséquemment, les classifications basées sur les indices 2D souffrent des mêmes limitations. Dans le but décrire la SIA en 3D, la torsion géométrique a été étudiée et proposée par Poncet et al. Celle-ci mesure la tendance d’une courbe tridimensionnelle à changer de direction. Cependant, la méthode proposée est susceptible aux erreurs de reconstructions 3D et elle est calculée localement au niveau vertébral. L’objectif de cette étude est d’évaluer une nouvelle méthode d’estimation de la torsion géométrique par l’approximation de longueurs d’arcs locaux et par paramétrisation de courbes dans la SIA. Une première étude visera à étudier la sensibilité de la nouvelle méthode présentée face aux erreurs de reconstructions 3D du rachis. Par la suite, deux études cliniques vont présenter la iv torsion géométrique comme indice global et viseront à démontrer l’existence de sous-groupes non-identifiés dans les classifications actuelles et que ceux-ci ont une pertinence clinique. La première étude a évalué la robustesse de la nouvelle méthode d’estimation de la torsion géométrique chez un groupe de patient atteint de la SIA. Elle a démontré que la nouvelle technique est robuste face aux erreurs de reconstructions 3D du rachis. La deuxième étude a évalué la torsion géométrique utilisant cette nouvelle méthode dans une cohorte de patient avec des déformations de type Lenke 1. Elle a démontré qu’il existe deux sous-groupes, une avec des valeurs de torsion élevées et l’autre avec des valeurs basses. Ces deux sous-groupes possèdent des différences statistiquement significatives, notamment au niveau du rachis lombaire avec le groupe de torsion élevée ayant des valeurs d’orientation des plans de déformation maximales (PMC) en thoraco-lombaire (TLL) plus élevées. La dernière étude a évalué les résultats chirurgicaux de patients ayant une déformation Lenke 1 sous-classifiées selon les valeurs de torsion préalablement. Cette étude a pu démontrer des différences au niveau du PMC au niveau thoraco-lombaire avec des valeurs plus élevées en postopératoire chez les patients ayant une haute torsion. Ces études présentent une nouvelle méthode d’estimation de la torsion géométrique et présentent cet indice quantitativement. Elles ont démontré l’existence de sous-groupes 3D basés sur cet indice ayant une pertinence clinique dans la SIA, qui n’étaient pas identifiés auparavant. Ce projet contribue dans la tendance actuelle vers le développement d’indices 3D et de classifications 3D pour la scoliose idiopathique de l’adolescent.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’herméneutique de Gadamer s’inscrit-elle dans la foulée de la critique heideggérienne de la métaphysique ? Devrait-on, par surcroit, la considérer comme une forme de nihilisme, où l’être serait réduit au langage et partant, à la pluralité des interprétations ? La présente étude vise plutôt à montrer, sous la conduite des indications de Gadamer lui-même, qu’il est impératif de reconnaître à son maître-ouvrage une dimension métaphysique certaine et cruciale et dont la portée consiste précisément à s’opposer aux interprétations nihiliste et nominaliste de notre rapport à l’être. Pour ce faire il sera d’abord établi que le concept d’appartenance (Zugehörigkeit) est le maître-concept de Vérité et méthode, comme l’avait vu Ricoeur, puis comment Gadamer rattache explicitement celui-ci à la métaphysique médiévale des transcendantaux, métaphysique qui demeure visible jusque dans les dernières conclusions de l’ouvrage qui traitent de la métaphysique de la lumière (Lichtmetaphysik). Nous verrons que c’est précisément à la lumière de cette proximité constante avec la métaphysique des transcendantaux qu’il faut comprendre la thèse de Gadamer à l’effet que l’être susceptible d’être compris est langage, de manière à y voir une affirmation soutenue de l’intelligibilité de l’être, comme l’avait d’ailleurs saisi Heidegger lui-même. Notre intention est ainsi de rendre perceptibles les sources et le cadre de cette métaphysique des transcendantaux, qui ont été négligés dans la réception de Gadamer. Nous porterons donc notre regard sur les sources médiévales de sa pensée que Gadamer connaît et commente, soit Thomas d’Aquin et Nicolas de Cues, mais aussi sur des auteurs moins connus de la tradition herméneutique, dont Philippe le Chancelier, auteur indispensable lorsqu’il s’agit de traiter de la métaphysique des transcendantaux à laquelle Gadamer se réfère. Cette enquête nous amènera à démontrer comment l’herméneutique de Gadamer s’inscrit dans la conception traditionnelle de la vérité comme adaequatio rei et intellectus, définition dont nous devons surtout à Thomas de l’avoir léguée à la postérité mais qu’ont aussi reprise les modernes, incluant Kant et Heidegger. C’est ainsi une nouvelle lecture du rapport de Gadamer à son maître Heidegger et à sa critique de la métaphysique qui résultera de cette archéologie des sources métaphysiques du concept d’appartenance ; il sera en effet démontré que l’héritage de Gadamer est à comprendre, de son propre aveu, en continuité et non en rupture avec la métaphysique. Enfin, fidèle à l’esprit herméneutique de l’application, nous éprouverons cette compréhension renouvelée du concept d’appartenance à l’aune d’une discussion de nature plus théologique, de manière à jeter un éclairage nouveau sur la fécondité de l’herméneutique gadamérienne dans le contexte de la théologie moderne. C’est ainsi que le concept de foi, compris habituellement dans le cadre imposé par la métaphysique moderne de la subjectivité qui le réduit à une « croyance » ou à un « choix personnel », sera mis à l’épreuve du tournant ontologique pris par l’herméneutique avec Gadamer et qui incite à dépasser la dichotomie entre le sujet et son objet en pensant le sujet à partir de l’être. C’est une compréhension de la foi comme appartenance, au sens précis que Gadamer donne à ce concept, qui sera ici mise au jour.