25 resultados para Occurrences fatales

em Université de Montréal, Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

PROBLÉMATIQUE: L’Organisation Mondiale de la Santé (OMS) considère les maladies cardiovasculaires (MCVs) comme l'hypertension, la maladie coronarienne (par exemple, infarctus du myocarde), l'insuffisance cardiaque ainsi que les accidents cérébrovasculaires, parmi les principales causes de mortalité dans le monde. Les MCVs sont des maladies multifactorielles caractérisées par des interactions complexes entre le génome et l'environnement et dont la prévalence augmente rapidement dans toutes les populations du globe, ce qui vient compliquer d'autant l'étude de leurs bases héréditaires. Nos études précédentes sur la population fondatrice des familles Canadiennes-françaises de la région du Saguenay-Lac-Saint-Jean (SLSJ) au Québec ont permis d’obtenir une carte des loci significativement liés à des déterminants qualitatifs et quantitatifs de l’hypertension et ses déterminants métaboliques [1, 2]. HYPOTHÈSE ET OBJECTIF: Puisque nos données préliminaires nous suggèrent que la mort prématurée consécutive aux MCVs possède des composantes génétique et environnementale, notre hypothèse de départ est que les maladies avec occurrences fatales et non fatales (OF et ONF, respectivement) ont des caractéristiques distinctes, surtout lorsqu’en lien avec le système CV. Pour réaliser ce projet, nos objectifs sont d’analyser les causes de morbidité/mortalité d’hypertendus avec ou sans obésité chez des familles de la région du SLSJ. Nous accomplirons ceci en interrogeant les registres des hôpitaux et de l'état civil de même que les données généalogiques de 1950 jusqu'à maintenant. Nous voulons décrire et étudier les OF pour les comparer aux NFO. RÉSULTATS: Nous avons identifié un total de 3,654 diagnostiques appartenant aux OF et ONF chez les 343 sujets étudiés. Pour les OF, nous avons trouvé que: (1) un grand total de 1,103 diagnostiques du système circulatoire ont affecté 299 sujets avec 555 occurrences et 247 premières occurrences; (2) 333 des sujets participants ont reçu 1,536 diagnostiques non-CV avec 195 occurrences et 107 premières occurrences; (3) 62 diagnostiques de toutes autres causes chez 62 des sujets participants avec 81 occurrences et 11 premières occurrences. Pour les ONF: (1) 156 diagnostiques du système circulatoire ont affecté 105 sujets; (2) 60 diagnostiques de causes non-CV chez 53 des sujets; (3) et 718 diagnostiques de toutes autres causes chez 252 des sujets. Pour les OF, 109 des 333 sujets affectés par les maladies non-CV et 58 des 62 par toutes autres maladies étaient atteints simultanément par des MCV. Nous avons décrit les caractéristiques des maladies avec occurrences fatales et non fatales. Les MCVs prédominaient dans les résultats des premières occurrences et occurrences totales tandis que les maladies non-CV étaient les plus élevées pour les diagnostiques. De plus, les OF CV ont affecté 67.1% de notre échantillon de population, incluant les sujets co-affectés par les maladies non-CV ou de toutes autres causes. En fait, nos sujets ont un risque trois fois plus élevé de développer des MCVs (p<0.0001; χ2=1,575.348), tandis qu’il diminue de moitié pour les maladies non-CV comparativement au reste de la population du SLSJ (p=0.0006; χ2=11.834). Enfin, le risque de développer des tumeurs malignes est diminué de moitié dans notre échantillon comparativement à l’incidence régionale. CONCLUSION: Cette étude a apporté une nouvelle perspective sur les OF et ONF chez nos sujets de la région SLSJ du Québec après 11 ans. Quand on observe ces résultats en conjonction avec les MCVs, ce risque double.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire est l'occasion d'établir une courte généalogie des femmes vampires au cinéma, en mettant en avant la manière dont la figure de la femme vampire résonne avec celle de la femme fatale, dans la mesure où elle constitue à la fois une vision négative de la femme émancipée, tout en offrant une manière d’échapper au modèle féminin traditionnel. En me demandant si le vampirisme peut être une source de pouvoir émancipatoire pour les femmes, j’analyse attentivement Byzantium (2012) de Neil Jordan. À travers l’étude successive des deux personnages principaux, Clara et Eleanor, je montre comment le film résonne avec la généalogie des femmes vampires établie préalablement, ainsi qu’avec certains enjeux féministes. Surtout, l’accent est mis sur la manière dont les personnages féminins contestent le pouvoir masculin, à travers la performance des stéréotypes, pour Clara, et la prise de contrôle du récit, pour Eleanor. Enfin, je me concentre sur la manière dont, à travers des mouvements de devenirs, ces personnages sortent du cycle fatal de l’oppression masculiniste, qui mène habituellement à l’extinction de la femme vampire en fin de récit, mais qui ici aboutit à une tentative de réconciliation entre les sexes. Mon travail s’appuie sur de larges recherches concernant la figure du vampire, ainsi que sur les études féministes et gender studies relatives aux textes vampiriques. Je m’appuie également sur les réflexions de Judith Butler, les travaux deleuziens sur la notion de « devenir », et les considérations de Derrida sur le don.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Affiliation: Louise Lafortune: Faculté de médecine, Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We provide a systematic treatment of the notion of economic insecurity, assuming that an individual’s sentiment of insecurity depends on the current wealth level and its variations experienced in the past. We think of wealth as a comprehensive variable encompassing anything that may help in coping with adverse occurrences. The current wealth level could also be interpreted as incorporating the individual’s evaluation of future prospects. Variations in wealth experienced in the recent past are given higher weight than experiences that occurred in the more distant past. Two classes of measures are characterized with sets of plausible and intuitive axioms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent projet vise à mieux comprendre les difficultés reliées à l’acquisition du subjonctif en français langue seconde chez les apprenants adultes. Nous tenterons plus particulièrement de déterminer les différents facteurs influant sur son acquisition. Nous présenterons dans un premier temps les théories de l’acquisition des langues, depuis ses débuts dans les années 50 jusqu’à aujourd’hui, afin de faire la lumière sur les différents facteurs impliqués dans l’acquisition d’une deuxième langue à l’âge adulte. Nous nous pencherons ensuite sur le cas spécifique du subjonctif en français. Dans la littérature, il est généralement accepté que ce mode est difficile à acquérir en raison de ses règles d’usage complexes et propres au français. Nous verrons par contre que certaines études contredisent le fait que le subjonctif se retrouve sous des formes complexes dans la langue parlée courante. Nous terminerons donc par une description du subjonctif et de ses règles d’usage. Cette description nous permettra de saisir le vaste éventail des emplois possibles et de le mettre, par la suite, en parallèle avec celui trouvé dans la langue parlée. Dans les deux dernières parties de ce travail, nous analyserons et discuterons des différents facteurs impliqués dans l’acquisition de ce mode. L’analyse de cinq études traitant du subjonctif en français langue première et seconde nous permettra d’abord de démontrer que, contrairement aux idées reçues dans la littérature, la complexité des règles d’usage du subjonctif n’affecte pas son acquisition. Nous verrons en fait que les occurrences du subjonctif en français parlé sont rares et leurs formes, relativement simples. Nous montrerons ensuite que la cause principale des difficultés d’acquisition est l’incapacité à remarquer facilement ce mode dans la langue cible en raison de sa faible fréquence et saillance, c'est-à-dire sa capacité à ressortir par rapport aux autres éléments de la phrase. Nous verrons également que le subjonctif s’acquiert tardivement parce que son développement dépend de celui des phrases complexes dans lesquelles il se trouve obligatoirement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les années 1990, les formations à visée professionnelle, comme l’enseignement, adoptent le paradigme du praticien réflexif. Au Québec, le référentiel de compétences proposé par le ministère de l’Éducation introduit l’idée que tout futur enseignant doit apprendre à « réfléchir sur sa pratique » (MEQ, 2001). Malgré de nombreuses études sur la réflexion, le concept reste flou et polysémique. Comment, dans ces conditions, « faire réfléchir » ? Des chercheurs contemporains, dans la mouvance éducative, humaniste et pragmatique de Dewey (1933), aboutissent à des conceptions convergentes de l’apprentissage par réflexion sur l’expérience (Osterman et Kottkamp, 2004; Brouwer et Korthagen, 2005; Loughran, 2006; Brockbank et McGill, 2007; Donnay et Charlier, 2008, entre autres). De leurs points communs est synthétisée une définition de la réflexion qui peut aider à clarifier son rôle en formation. La recherche se donne comme objectif de « saisir » des événements réflexifs pour élucider comment des formations universitaires contribuent à développer des mécanismes de réflexion favorables à un autorenouvellement professionnel à long terme. La démarche est qualitative, l’approche interprétative-compréhensive. Des entrevues semi-structurées ont permis de recueillir des données auprès de finissants en enseignement du français langue seconde (FLS), en coopération internationale, à l’Université de Montréal, ainsi que d’enseignants de FLS expérimentés d’une université québécoise. Du corpus d’« occurrences de réflexion » ont émergé les significations que les acteurs donnaient à leur expérience d’apprentissage ou de travail. Les résultats sont présentés en trois articles. Le premier décrit la méthodologie construite pour repérer des occurrences de réflexion. Le second révèle deux grandes caractéristiques de dispositifs qui la stimulent particulièrement: 1) l’agir en situation de travail authentique ou vraisemblable; 2) la confrontation interactive à l’altérité (pairs, clientèle). Le troisième article aborde les représentations plus riches, nuancées et critiques de la profession, l’Autre et soi-même sur lesquelles débouche la réflexion. L’étude documente aussi les effets de ces reconceptualisations sur l’acteur et l’action, et produit des typologies des préoccupations des (futurs) professionnels et des objets réfléchis Des pistes de recherche et d’application sont dégagées pour les formations professionnalisantes et le développement professionnel en milieu de travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La figure mythique du double se manifeste dans la majorité des cultures sous des formes archétypales renvoyant à l’expérience de la division de l’individu en positions antithétiques ou complémentaires. Dans la littérature gothique et fantastique, le mythe est propice à créer un sentiment d’angoisse et d’horreur soulignant les problèmes et mystères de la schize du sujet. Ce travail d’analyse propose de regrouper les récits de doubles selon deux catégories d’occurrences thématiques en se basant sur le traitement textuel qui en est fait, soit l’apparition du double par homonymie d’une part et par pseudonymie de l’autre. Ceci mènera ultimement à commenter sur la perception qu’a l’auteur de lui-même et du processus de création. Le problème de la division étant au cœur des balbutiements théoriques en psychologie et en psychanalyse, une grille analytique lacanienne et post-structuraliste sera appliquée à cette recherche. Les œuvres traitées seront New York Trilogy de Paul Auster, The Dark Half de Stephen King, William Wilson d’Edgar Allan Poe, Le Double de Fédor Dostoïevski et Despair de Vladimir Nabokov.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet a été réalisé grâce à une bourse du Conseil de recherches en sciences humaines du Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise d’un supplément d’acide folique en période préconceptionnelle réduit le risque d’une anomalie du tube neural (ATN), une malformation du système nerveux. Dans le but d’en réduire la prévalence, la Société des Obstétriciens et Gynécologues du Canada a émis de nouvelles directives cliniques en 2007 qui tenaient compte de différents facteurs de risque pour les ATN et pour qui la dose recommandée variait selon le profil de risque de la femme, allant de 0,4 à 5,0 mg d’acide folique. Jusqu’à présent, peu de données sont disponibles sur les effets de la prise d’une haute dose d’acide folique. Les objectifs de cette étude étaient: 1) d’évaluer la concordance entre la supplémentation en acide folique chez les femmes enceintes et les nouvelles recommandations canadiennes; 2) d’identifier les déterminants d’une utilisation concordante et 3) d’évaluer si la prise de hautes doses d’acide folique en période périconceptionnelle réduisait le risque de malformations congénitales autre que les ATN. Pour répondre à ces objectifs, une étude transversale et une étude écologique ont été effectuées. La première incluait 361 femmes enceintes recrutées aux cliniques d’obstétriques du CHU Sainte-Justine et la deuxième utilisait le Registre Québécois des Grossesses, issu du jumelage de trois banques de données administratives au Québec (RAMQ, Med-Écho et ISQ), où 152 392 couples mère-enfant ont été identifiés. Seul 27% des femmes enceintes ayant participé à l’étude transversale avaient une supplémentation en acide folique, avec ou sans ordonnance, concordante aux lignes directrices canadiennes. La concordance variait selon leur profil de facteurs de risque pour les ATN. Notre étude écologique montre que la prévalence annuelle de l’utilisation de haute dose d’acide folique (avec ordonnance) en période périconceptionnelle a augmenté de 0,17% à 0,80% (p < 0,0001) entre 1998 et 2008 et que la prévalence des malformations congénitales majeures a augmenté de 15% au cours de la même période (3,35% à 3,87%, p<0,0001). Les résultats de nos deux études montrent que l’acide folique n’est pas largement utilisé par les femmes en âge de procréer et ce, peu importe la dose. De nouvelles campagnes de santé publique devront être mises sur pied, afin d’inciter les femmes à consommer de l’acide folique avant et pendant leur grossesse. Également, la prise de haute dose d’acide folique ne semble pas avoir diminué le risque de malformations congénitales, à l’échelle populationnelle.