221 resultados para Désambiguïsation automatique
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
The automatic acquisition of lexical associations from corpora is a crucial issue for Natural Language Processing. A lexical association is a recurrent combination of words that co-occur together more often than expected by chance in a given domain. In fact, lexical associations define linguistic phenomena such as idiomes, collocations or compound words. Due to the fact that the sense of a lexical association is not compositionnal, their identification is fundamental for the realization of analysis and synthesis that take into account all the subtilities of the language. In this report, we introduce a new statistically-based architecture that extracts from naturally occurring texts contiguous and non contiguous. For that purpose, three new concepts have been defined : the positional N-gram models, the Mutual Expectation and the GenLocalMaxs algorithm. Thus, the initial text is fisrtly transformed in a set of positionnal N-grams i.e ordered vectors of simple lexical units. Then, an association measure, the Mutual Expectation, evaluates the degree of cohesion of each positional N-grams based on the identification of local maximum values of Mutual Expectation. Great efforts have also been carried out to evaluate our metodology. For that purpose, we have proposed the normalisation of five well-known association measures and shown that both the Mutual Expectation and the GenLocalMaxs algorithm evidence significant improvements comparing to existent metodologies.
Resumo:
Introduction: Cette étude a pour but de déterminer la fréquence de survenue de l'arrêt cardio-respiratoire (ACR) au cabinet médical qui constitue un élément de décision quant à la justification de la présence d'un défibrillateur semi-automatique (DSA) au cabinet médical. Matériel et Méthode: Analyse rétrospective des fiches d'intervention pré-hospitalière des ambulances et des SMUR (Service Mobile d'Urgence et de Réanimation) du canton de Vaud (650'000 habitants) entre 2003 et 2006 qui relataient un ACR. Les variables suivantes ont été analysées: chronologie de l'intervention, mesures de réanimation cardio-pulmonaire (RCP) appliquées, diagnostic présumé, suivi à 48 heures. Résultats: 17 ACR (9 _, 8 _) ont eu lieu dans les 1655 cabinets médicaux du canton de Vaud en 4 ans sur un total de 1753 ACR extrahospitaliers, soit 1% de ces derniers. Tous ont motivés une intervention simultanée d'une ambulance et d'un SMUR. L'âge moyen était de 70 ans. Le délai entre l'ACR et l'arrivée sur site d'un DSA était en moyenne de plus de 10 minutes (min-max: 4-25 minutes). Dans 13 cas évaluables, une RCP était en cours à l'arrivée des renforts, mais seulement 7 étaient qualifiées d'efficaces. Le rythme initial était une fibrillation ventriculaire (FV) dans 8 cas et ont tous reçu un choc électrique externe (CEE), dont 1 avant l'arrivée des secours administré dans un cabinet équipé d'un DSA. Le diagnostic était disponible pour 9 cas: 6 cardiopathies, 1 embolie pulmonaire massive, 1 choc anaphylactique et 1 tentamen médicamenteux. Le devenir de ces patients a été marqué par 6 décès sur site, 4 décès à l'admission à l'hôpital et 7 vivants à 48 heures. Les données ne permettent pas d'avoir un suivi ni à la sortie de l'hôpital ni ultérieurement. Conclusions: Bien que la survenue d'un ACR soit très rare au cabinet médical, il mérite une anticipation particulière de la part du médecin. En effet, le délai d'arrivée des services d'urgences nécessite la mise en oeuvre immédiate de mesures par le médecin. En outre, comme professionnel de la santé, il se doit d'intégrer la chaîne de survie en procédant à une alarme précoce du 144 et initier des gestes de premier secours («Basic Life Support»). La présence d'un DSA pourrait être envisagée en fonction notamment de l'éloignement de secours professionnels équipés d'un DSA.
Resumo:
Résumé Objectif: l'observation des variations de volume de la matière grise (MG), de la matière blanche (MB), et du liquide céphalo-rachidien (LCR) est particulièrement utile dans l'étude de nombreux processus physiopathologiques, la mesure quantitative 'in vivo' de ces volumes présente un intérêt considérable tant en recherche qu'en pratique clinique. Cette étude présente et valide une méthode de segmentation automatique du cerveau avec mesure des volumes de MG et MB sur des images de résonance magnétique. Matériel et Méthode: nous utilisons un algorithme génétique automatique pour segmenter le cerveau en MG, MB et LCR à partir d'images tri-dimensionnelles de résonance magnétique en pondération Ti. Une étude morphométrique a été conduite sur 136 sujets hommes et femmes de 15 à 74 ans. L'algorithme a ensuite été validé par 5 approches différentes: I. Comparaison de mesures de volume sur un cerveau de cadavre par méthode automatique et par mesure de déplacement d'eau selon la méthode d'Archimède. 2. Comparaison de mesures surfaces sur des images bidimensionnelles segmentées soit par un traçage manuel soit par la méthode automatique. 3. Evaluation de la fiabilité de la segmentation par acquisitions et segmentations itératives du même cerveau. 4. Les volumes de MG, MB et LCR ont été utilisés pour une étude du vieillissement normal de la population. 5. Comparaison avec les données existantes de la littérature. Résultats: nous avons pu observer une variation de la mesure de 4.17% supplémentaire entre le volume d'un cerveau de cadavre mesuré par la méthode d'Archimède, en majeure partie due à la persistance de tissus après dissection_ La comparaison des méthodes de comptage manuel de surface avec la méthode automatique n'a pas montré de variation significative. L'épreuve du repositionnement du même sujet à diverses reprises montre une très bonne fiabilité avec une déviation standard de 0.46% pour la MG, 1.02% pour la MB et 3.59% pour le LCR, soit 0.19% pour le volume intracrânien total (VICT). L'étude morphométrique corrobore les résultats des études anatomiques et radiologiques existantes. Conclusion: la segmentation du cerveau par un algorithme génétique permet une mesure 100% automatique, fiable et rapide des volumes cérébraux in vivo chez l'individu normal.
Resumo:
Résumé Lors d'une recherche d'information, l'apprenant est très souvent confronté à des problèmes de guidage et de personnalisation. Ceux-ci sont d'autant plus importants que la recherche se fait dans un environnement ouvert tel que le Web. En effet, dans ce cas, il n'y a actuellement pas de contrôle de pertinence sur les ressources proposées pas plus que sur l'adéquation réelle aux besoins spécifiques de l'apprenant. A travers l'étude de l'état de l'art, nous avons constaté l'absence d'un modèle de référence qui traite des problématiques liées (i) d'une part aux ressources d'apprentissage notamment à l'hétérogénéité de la structure et de la description et à la protection en terme de droits d'auteur et (ii) d'autre part à l'apprenant en tant qu'utilisateur notamment l'acquisition des éléments le caractérisant et la stratégie d'adaptation à lui offrir. Notre objectif est de proposer un système adaptatif à base de ressources d'apprentissage issues d'un environnement à ouverture contrôlée. Celui-ci permet de générer automatiquement sans l'intervention d'un expert pédagogue un parcours d'apprentissage personnalisé à partir de ressources rendues disponibles par le biais de sources de confiance. L'originalité de notre travail réside dans la proposition d'un modèle de référence dit de Lausanne qui est basé sur ce que nous considérons comme étant les meilleures pratiques des communautés : (i) du Web en terme de moyens d'ouverture, (ii) de l'hypermédia adaptatif en terme de stratégie d'adaptation et (iii) de l'apprentissage à distance en terme de manipulation des ressources d'apprentissage. Dans notre modèle, la génération des parcours personnalisés se fait sur la base (i) de ressources d'apprentissage indexées et dont le degré de granularité en favorise le partage et la réutilisation. Les sources de confiance utilisées en garantissent l'utilité et la qualité. (ii) de caractéristiques de l'utilisateur, compatibles avec les standards existants, permettant le passage de l'apprenant d'un environnement à un autre. (iii) d'une adaptation à la fois individuelle et sociale. Pour cela, le modèle de Lausanne propose : (i) d'utiliser ISO/MLR (Metadata for Learning Resources) comme formalisme de description. (ii) de décrire le modèle d'utilisateur avec XUN1 (eXtended User Model), notre proposition d'un modèle compatible avec les standards IEEE/PAPI et IMS/LIP. (iii) d'adapter l'algorithme des fourmis au contexte de l'apprentissage à distance afin de générer des parcours personnalisés. La dimension individuelle est aussi prise en compte par la mise en correspondance de MLR et de XUM. Pour valider notre modèle, nous avons développé une application et testé plusieurs scenarii mettant en action des utilisateurs différents à des moments différents. Nous avons ensuite procédé à des comparaisons entre ce que retourne le système et ce que suggère l'expert. Les résultats s'étant avérés satisfaisants dans la mesure où à chaque fois le système retourne un parcours semblable à celui qu'aurait proposé l'expert, nous sommes confortées dans notre approche.
Resumo:
Introduction: Seulement 25-30% des patients avec syndrome coronarien aigu (SCA) atteignent les valeurs cibles de LDL-cholestérol (LDL-C) dans leur suivi. L'objectif de cette étude pré/post est de tester une alerte automatique centralisée pour améliorer les pratiques. L'alerte apparaît sur les feuilles de laboratoire pour tous les patients ayant une troponine >= 0,1 microg/l; elle précise notamment les recommandations en matière de profil lipidique (LDL-C cible) à atteindre. Méthode: Tout patient admis au CHUV pour un SCA avec troponine >= 0,1 microg/l était éligible. Durant les 2 phases de l'étude (du 23.11.2008 au 15.08.201), un bilan lipidique complet a été dosé à l'admission et à 3 mois. La phase 1 (pré) était observationnelle et le message d'alerte a été introduit pour la phase 2 (post). Résultats: Phase 1: 157 patients dont 56 (35%) étaient déjà traités par une statine: 114 hommes (âge moyen 62 ans) et 43 femmes (73 ans). LDL-C moyen: 3,4 ± 1,0 mmol/l à l'admission et 2,4 ± 0,8 mmol/l à 3 mois (p <0,001). Phase 2: 140 patients dont 42 (30%) étaient déjà traités par une statine: 116 hommes (62 ans) et 24 femmes (67 ans). LDL-C moyen: 3,4 ± 1,1 mmol/l à l'admission et 2,2 ± 1,0 mmol/l à 3 mois (p <0,001). 66 % (104 patients) atteignent un LDL-C cible < = 2,6 mmol/l à 3 mois lors de la phase 1, versus 78% (110 patients) lors de la phase 2 (p = 0,2). Les patients déjà sous statine à l'admission ont une faible diminution du LDL-C à 3 mois (de 2,8 à 2,5 mmol/l phase 1, p <0,05; de 2,5 à 2,6 mmol/l phase 2, p = 0.2), alors que les patients chez qui une statine est introduite à l'admission ont une baisse significative et plus importante du LDL-C à 3 mois (de 3,8 à 2,3 mmol/l phase 1, p <0,001; de 3,7 à 2,1 mmol/l phase 2, p <0,001) que les patients déjà sous statine au préalable. Conclusion: La phase observationnelle montre un taux élevé de patients atteignant un LDL-C cible à 3 mois. L'introduction d'une alarme automatique centralisée n'a pas permis d'améliorer ces résultats. Par contre, les patients arrivant à l'hôpital avec un SCA et étant déjà sous statine devraient avoir une intensification de leur traitement.
Resumo:
RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.
Resumo:
An implantable cardiac defibrillator (ICD) is a cardiac implantable electronic device that is capable of identifying and treating ventricular arrhythmias. Consideration about the type of ICD to select for a given patient include whether the patient has bradycardia requiring pacing support, has associated atrial tachyarrhythmias, or would benefit from cardiac resynchronization therapy. The ICD functions by continuously monitoring the patient's cardiac rate and delivering therapies (anti-tachycardia pacing, shocks) when the rate exceeds the programmed rate "cutoff". Secondary prevention trials have demonstrated that ICDs reduce the incidence of arrhythmic death and total mortality in patients presenting with a cardiac arrest. ICDs are also indicated for primary prevention of sudden cardiac death in specific high-risk subgroups of patients.
Resumo:
De nombreuses méthodes de classification automatique de textes (supervisée ou non) existent. Elles se sont particulièrement développées depuis la création du web en vue d'améliorer les moteurs de recherche. Au delà de ce champs d'application, elles peuvent aussi être utiles pour « découvrir » ou « redécouvrir » ce qui caractérise une classe de textes aussi simplement que possible. Dans l'approche statistique développée ici, il s'agira de partitionner des parties de textes en types de discours tels que narratif, explicatif, argumentatif etc. en utilisant un minimum d'information, à savoir les catégories morphosyntaxiques (CMS). Les premiers résultats obtenus mettent en évidence des liens significatifs entre les CMS, les types de discours et des textes annotés par un expert humain ; ces relations sont toutefois encore incomplètes et difficiles à interpréter d'un point de vue linguistique.