133 resultados para Méthode hybride

em Université de Montréal, Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette étude examine comment différents textes du XVIIIe siècle traitent du roman. L’hypothèse est la suivante : le genre choisi pour parler du roman participe de manière intrinsèque à la critique ou à l’apologie véhiculée dans l’œuvre. Le corpus est composé de quatre textes plus ou moins (re)connus par les historiens de la littérature narrative : De l’Usage des romans (1734) de Lenglet-Dufresnoy, le Voyage merveilleux du Prince Fan-Férédin dans la Romancie (1735) du père Bougeant, De Libris qui vulgò dicuntur Romanenses (1736) du père Porée et les Entretiens sur les romans (1755) du père Jacquin. À l’aide d’une méthode hybride d’analyse générique et d’analyse rhétorique du discours, cette étude s’intéresse aux genres employés par les auteurs du corpus (le traité, le roman, le discours académique et l’entretien) de même qu’à trois thématiques argumentatives reliées au roman (le poison, l’amour et la femme).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nous présentons une méthode hybride pour le résumé de texte, en combinant l'extraction de phrases et l'élagage syntaxique des phrases extraites. L'élagage syntaxique est effectué sur la base d’une analyse complète des phrases selon un parseur de dépendances, analyse réalisée par la grammaire développée au sein d'un logiciel commercial de correction grammaticale, le Correcteur 101. Des sous-arbres de l'analyse syntaxique sont supprimés quand ils sont identifiés par les relations ciblées. L'analyse est réalisée sur un corpus de divers textes. Le taux de réduction des phrases extraites est d’en moyenne environ 74%, tout en conservant la grammaticalité ou la lisibilité dans une proportion de plus de 64%. Étant donné ces premiers résultats sur un ensemble limité de relations syntaxiques, cela laisse entrevoir des possibilités pour une application de résumé automatique de texte.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en Sciences infirmières option infirmière clinicienne spécialisée

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La bio-informatique est un champ pluridisciplinaire qui utilise la biologie, l’informatique, la physique et les mathématiques pour résoudre des problèmes posés par la biologie. L’une des thématiques de la bio-informatique est l’analyse des séquences génomiques et la prédiction de gènes d’ARN non codants. Les ARN non codants sont des molécules d’ARN qui sont transcrites mais pas traduites en protéine et qui ont une fonction dans la cellule. Trouver des gènes d’ARN non codants par des techniques de biochimie et de biologie moléculaire est assez difficile et relativement coûteux. Ainsi, la prédiction des gènes d’ARNnc par des méthodes bio-informatiques est un enjeu important. Cette recherche décrit un travail d’analyse informatique pour chercher des nouveaux ARNnc chez le pathogène Candida albicans et d’une validation expérimentale. Nous avons utilisé comme stratégie une analyse informatique combinant plusieurs logiciels d’identification d’ARNnc. Nous avons validé un sous-ensemble des prédictions informatiques avec une expérience de puces à ADN couvrant 1979 régions du génome. Grace à cette expérience nous avons identifié 62 nouveaux transcrits chez Candida albicans. Ce travail aussi permit le développement d’une méthode d’analyse pour des puces à ADN de type tiling array. Ce travail présente également une tentation d’améliorer de la prédiction d’ARNnc avec une méthode se basant sur la recherche de motifs d’ARN dans les séquences.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude vise à estimer l’apport en glutamine (Gln) alimentaire chez des athlètes soumis à un protocole de supplémentation en glutamine ainsi qu’à clarifier les informations diffusées au grand public en ce qui concerne les sources alimentaires de glutamine. Des études cliniques ont démontré que la supplémentation en glutamine pouvait réduire la morbidité et la mortalité chez des sujets en phase critique (grands brulés, chirurgie…). Le mécanisme en cause semble impliquer le système immunitaire. Cependant, les études chez les sportifs, dont le système immunitaire a de fortes chances d’être affaibli lors de périodes d’entraînement prolongées impliquant des efforts longs et intenses, n’ont pas été concluantes. Or, ces études négligent systématiquement l’apport alimentaire en glutamine, si bien qu’il est probable que les résultats contradictoires observés puissent en partie être expliqués par les choix alimentaires des sujets. Puisque la méthode conventionnelle de dosage des acides aminés dans les protéines alimentaires transforme la glutamine en glutamate, les tables de composition des aliments présentent la glutamine et le glutamate ensemble sous la dénomination « glutamate » ou « Glu », ce qui a comme conséquence de créer de l’ambiguïté. La dénomination « Glx » devrait être utilisée. Partant de la probabilité qu’un apport en Glx élevé soit un bon indicateur de l’apport en glutamine, nous avons créé un calculateur de Glx et avons évalué l’alimentation de 12 athlètes faisant partie d’une étude de supplémentation en glutamine. Nous avons alors constaté que l’apport en Glx était directement proportionnel à l’apport en protéines, avec 20,64 % ± 1,13 % de l’apport protéique sous forme de Glx. Grâce à quelques données sur la séquence primaire des acides aminés, nous avons pu constater que le rapport Gln/Glx pouvait être très variable d’un type de protéine à l’autre. Alors que le ratio molaire Gln/Glx est de ~95 % pour les α et β-gliadines, il n’est que de ~43 % pour la caséine, de ~36 % pour la β-lactoglobuline, de ~31 % pour l’ovalbumine et de ~28 % pour l’actine. Il est donc possible que certaines protéines puissent présenter des avantages par rapport à d’autres, à quantité égale de Glx.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En raison de la grande résolution des photographies des échantillons, celles-ci se trouvent dans un fichier complémentaire, puisque les conditions de forme imposées ne permettaient pas l'affichage intégral de ces images au sein du mémoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les cadriciels et les bibliothèques sont indispensables aux systèmes logiciels d'aujourd'hui. Quand ils évoluent, il est souvent fastidieux et coûteux pour les développeurs de faire la mise à jour de leur code. Par conséquent, des approches ont été proposées pour aider les développeurs à migrer leur code. Généralement, ces approches ne peuvent identifier automatiquement les règles de modification une-remplacée-par-plusieurs méthodes et plusieurs-remplacées-par-une méthode. De plus, elles font souvent un compromis entre rappel et précision dans leur résultats en utilisant un ou plusieurs seuils expérimentaux. Nous présentons AURA (AUtomatic change Rule Assistant), une nouvelle approche hybride qui combine call dependency analysis et text similarity analysis pour surmonter ces limitations. Nous avons implanté AURA en Java et comparé ses résultats sur cinq cadriciels avec trois approches précédentes par Dagenais et Robillard, M. Kim et al., et Schäfer et al. Les résultats de cette comparaison montrent que, en moyenne, le rappel de AURA est 53,07% plus que celui des autre approches avec une précision similaire (0,10% en moins).