228 resultados para Algorithme incrémental


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce papier utilise les réseaux de neurones avec un algorithme incrémental comme outil de sélection des facteurs de risques les plus pertinents dans la maladie du cancer du sein. Les résultats témoignent de la pertinence de l’approche neuronale avec un algorithme incrémentale dans ce domaine de recherche. A partir d’un échantillon de 248 patientes atteintes par cette maladie, il nous a été possible de déterminer la combinaison optimale des facteurs permettant d’atteindre une bonne performance prédictive du type de tumeur maligne et bénigne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’exercice en immersion dans l'eau peut générer des réponses hémodynamiques et cardiorespiratoires différentes à celles de l’exercice sur terraine sec. Cependant, aucune étude n’a comparé ces réponses sur vélo aquatique (VA) à celles sur vélo sur terrain sec (VS) à une même puissance mécanique externe (Pext). À cet égard, le premier travail de cette thèse visait, d’abord, à trouver les équivalences de Pext lors du pédalage sur VA en immersion à la poitrine par rapport au VS au laboratoire, en considérant que cela restait non déterminé à ce jour. Une équation de mécanique des fluides fut utilisée pour calculer la force déployée pour le système de pédalage (pales, leviers, pédales) et des jambes à chaque tour de pédale. Ensuite, cette force totale a été multipliée par la vitesse de pédalage pour estimer la Pext sur VA. Ayant trouvé les équivalences de Pext sur VA et VS, nous nous sommes fixés comme objectif dans la deuxième étude de comparer les réponses hémodynamiques et cardiorespiratoires lors d'un exercice maximal progressif sur VS par rapport au VA à une même Pext. Les résultats ont montré que le VO2 (p<0.0001) et la différence artério-veineuse (C(a-v)O2) (p<0.0001) étaient diminués lors de l’exercice sur VA comparativement à celui sur VS. Parmi les variables hémodynamiques, le volume d’éjection systolique (VES) (p˂0.05) et le débit cardiaque (Qc) (p˂0.05) étaient plus élevés sur VA. En plus, on nota une diminution significative de la fréquence cardiaque (FC) (p˂0.05). Étant donné qu’à une même Pext les réponses physiologiques sont différentes sur VA par rapport à celles sur VS, nous avons effectué une troisième étude pour établir la relation entre les différentes expressions de l'intensité relative de l'exercice (% du VO2max,% de la FCmax,% du VO2 de réserve (% de VO2R) et % de la FC réserve (% FCR)). Les résultats ont démontré que la relation % FCR vs % VO2R était la plus corrélée (régression linéaire) et la plus proche de la ligne d’identité. Ces résultats pourraient aider à mieux prescrire et contrôler l’intensité de l'exercice sur VA pour des sujets sains. Finalement, une dernière étude comparant la réactivation parasympathique après un exercice maximal incrémental effectué sur VA et VS en immersion au niveau de la poitrine a montré que la réactivation parasympathique à court terme était plus prédominante sur VA (i,e. t, delta 10 à delta 60 et T30, p<0.05). Cela suggérait, qu’après un exercice maximal sur VA, la réactivation parasympathique à court terme était accélérée par rapport à celle après l'effort maximal sur VS chez de jeunes sujets sains. En conclusion, nous proposons une méthode de calcul de la puissance mécanique externe sur VA en fonction de la cadence de pédalage. Nous avons démontré que pendant l’exercice sur VA les réponses hémodynamiques et cardiorespiratoires sont différentes de celles sur VS à une même Pext et nous proposons des équations pour le calcul du VO2 dans l’eau ainsi qu’une méthode pour la prescription et le contrôle de l’exercice sur VA. Finalement, la réactivation parasympathique à court terme s’est trouvée accélérée après un effort maximal incrémental sur VA comparativement à celle sur VS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A l'origine nous nous avions proposé programmer sur CAB-5DO la méthode de synthèse de Gloushkov pour la classe des automates asynchrones du type machine transfert, d'où le titre de la thèse. A sa place nous avons resous le même problême â l'aide d'une méthode algorihmique originale» Après une introduction on définit la nouvelle méthode, valable pour les machines asynchrones, ainsi que quelques propriétés intéréssantés des expressions itérées ( en particulier de l'événement universel )» Dans la suite on établit les organigrammes générales de synthèse et l'organisation du travail sur machine. Après la conclusion, où l'on résume les avantages de nôtre méthode, il y a txoisPnnexes, dans le premier desquels on fait d'une façon pratique le point sur ces avantages par rapport à la méthode de Gloushkov f dans.le deuxième on groupe des organigrammes très détaillés, les programmes correspondants et quelques résultats > et dans le troisième le programme traduit en fortran IV qui a été mis au point sur le calculateur IBM 360/44 du l . E. R. A. ( Centre d'Etudes et Récherches en Automatisme).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thesis (doctoral)--

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.