29 resultados para CLASSIFICATIONS

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université de Paris-Sud

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper I criticize Alison Jaggar’s descriptions of feminist political theories. I propose an alternative classification of feminist theories that I think more accurately reflects the multiplication of feminist theories and philosophies. There are two main categories, “street theory” and academic theories, each with two sub-divisions, political spectrum and “differences” under street theory, and directly and indirectly political analyses under academic theories. My view explains why there are no radical feminists outside of North America and why there are so few socialist feminists inside North America. I argue, controversially, that radical feminism is a radical version of liberalism. I argue that “difference” feminist theories – theory by and about feminists of colour, queer feminists, feminists with disabilities and so on – belong in a separate sub-category of street theory, because they’ve had profound effects on feminist activism not tracked by traditional left-to-right classifications. Finally, I argue that, while academic feminist theories such as feminist existentialism or feminist sociological theory are generally unconnected to movement activism, they provide important feminist insights that may become importanby showing the advantages of my classification over Jaggar’s views.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation des services de santé est au centre de l’organisation des soins. La compréhension des processus qui déterminent cette utilisation est essentielle pour agir sur le système de santé et faire en sorte qu’il réponde mieux aux besoins de la population. L’objectif de cette thèse est de comprendre le phénomène complexe qu’est l’utilisation des services de santé en s’intéressant à la pratique des médecins omnipraticiens. En nous appuyant sur le cadre théorique de Donabedian, nous décomposons les déterminants de l’utilisation des services de santé en trois niveaux : le niveau individuel, le niveau organisationnel, et le niveau environnemental. Pour tenir compte de la complexité des phénomènes de cette étude nous proposons de nous appuyer sur l’approche configurationnelle. Notre question de recherche est la suivante : dans quelle mesure le mode d’exercice des omnipraticiens influence-t-il la prestation des services et comment l’environnement géographique et la patientèle modulent-ils cette relation ? Nous avons utilisé des bases de données jumelées du Collège des médecins du Québec, de la Régie d’assurance maladie du Québec et de la banque de données iCLSC. Notre échantillon est constitué des médecins omnipraticiens de l’année 2002, ayant satisfait aux critères d’inclusion, ce qui représente près de 70% de la population totale. Des analyses de correspondances multiples et des classifications ascendantes hiérarchiques ont été utilisées pour réaliser la taxonomie des modes d’exercice et des contextes géographiques. Nous avons construit des indicateurs d’utilisation des services de santé pour apprécier la continuité, la globalité, l’accessibilité et la productivité. Ces indicateurs ont été validés en les comparant à ceux d’une enquête populationnelle. Nous présentons tout d’abord les modes d’exercice des médecins qui sont au nombre de sept. Deux modes d’exercice à lieu unique ont émergé : le mode d’exercice en cabinet privé d'une part, caractérisé par des niveaux de continuité et productivité élevés, le mode d’exercice en CLSC d'autre part présentant un niveau de productivité faible et des niveaux de globalité et d'accessibilité légèrement au-dessus de la moyenne. Dans les cinq autres modes d’exercice, les médecins exercent leur pratique dans une configuration de lieux. Deux modes d’exercice multi-institutionnel réunissent des médecins qui partagent leur temps entre les urgences, les centres hospitaliers et le cabinet privé ou le CLSC. Les médecins de ces deux groupes présentent des niveaux d’accessibilité et de productivité très élevés. Le mode d’exercice le moins actif réunit des médecins travaillant en cabinet privé et en CHLSD. Leur niveau d’activité est inférieur à la moyenne. Ils sont caractérisés par un niveau de continuité très élevé. Le mode d’exercice ambulatoire regroupe des médecins qui partagent leur pratique entre le CLSC, le cabinet privé et le CHLSD. Ces médecins présentent des résultats faibles sur tous les indicateurs. Finalement le mode d’exercice hospitaliste réunit des médecins dont la majorité de la pratique s’exerce en milieu hospitalier avec une petite composante en cabinet privé. Dans ce mode d’exercice tous les indicateurs sont faibles. Les analyses ont mis en évidence quatre groupes de territoires de CSSS : les ruraux, les semi-urbains, les urbains et les métropolitains. La prévalence des modes d’exercice varie selon les contextes. En milieu rural, le multi-institutionnel attire près d’un tiers des médecins. En milieu semi-urbain, les médecins se retrouvent de façon plus prédominante dans les modes d’exercice ayant une composante CLSC. En milieu urbain, les modes d’exercice ayant une composante cabinet privé attirent plus de médecins. En milieu métropolitain, les modes d’exercice moins actif et hospitaliste attirent près de 40% des médecins. Les omnipraticiens se répartissent presque également dans les autres modes d’exercice. Les niveaux des indicateurs varient en fonction de l’environnement géographique. Ainsi l’accessibilité augmente avec le niveau de ruralité. De façon inverse, la productivité augmente avec le niveau d’urbanité. La continuité des soins est plus élevée en régions métropolitaines et rurales. La globalité varie peu d’un contexte à l’autre. Pour pallier à la carence de l’analyse partielle de l’organisation de la pratique des médecins dans la littérature, nous avons créé le concept de mode d’exercice comme la configuration de lieux professionnels de pratique propre à chaque médecin. A notre connaissance, il n’existe pas dans la littérature, d’étude qui ait analysé simultanément quatre indicateurs de l’utilisation des services pour évaluer la prestation des services médicaux, comme nous l’avons fait. Les résultats de nos analyses montrent qu’il existe une différence dans la prestation des services selon le mode d’exercice. Certains des résultats trouvés sont documentés dans la littérature et plus particulièrement quand il s’agit de mode d’exercice à lieu unique. La continuité et la globalité des soins semblent évoluer dans le même sens. De même, la productivité et l’accessibilité sont corrélées positivement. Cependant il existe une tension, entre les premiers indicateurs et les seconds. Seuls les modes d’exercice à lieu unique déjouent l’arbitrage entre les indicateurs, énoncé dans l’état des connaissances. Aucun mode d’exercice ne présente de niveaux élevés pour les quatre indicateurs. Il est donc nécessaire de travailler sur des combinaisons de modes d’exercice, sur des territoires, afin d’offrir à la population les services nécessaires pour l’atteinte concomitante des quatre objectifs de prestation des services. Les modes d’exercice émergents (qui attirent les jeunes médecins) et les modes d’exercice en voie de disparition (où la prévalence des médecins les plus âgés est la plus grande) sont préoccupants. A noter que les modes d’exercice amenés à disparaître répondent mieux aux besoins de santé de la population que les modes d’exercice émergents, au regard de tous nos indicateurs. En conclusion, cette thèse présente trois contributions théoriques et trois contributions méthodologiques. Les implications pour les recherches futures et la décision indiquent que, si aucune mesure n’est mise en place pour renverser la tendance, le Québec risque de vivre des pénuries dans la prestation des services en termes de continuité, globalité et accessibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La complexité de l’étude des neuropathies héréditaires provient de leur hétérogénéité clinique et génétique et de la diversité des fibres composant les nerfs périphériques. Cette complexité se reflète dans les nombreuses classifications différentes. Les neuropathies héréditaires se classifient entre autres selon leur mode de transmission et leur atteinte sensitive, autonomique et motrice. Les neuropathies héréditaires sensitives et autonomiques (NHSA) se présentent avec une perte de la sensation distale aux membres, accompagnée d’autres manifestations selon le type de NHSA. L’étude des NHSA est facilitée lorsqu’il existe des grappes de familles originaires de régions du Québec où des effets fondateurs pour des maladies récessives ont déjà été identifiés. Nous avons recruté une grande famille canadienne-française originaire de Paspébiac dans la Baie-des-Chaleurs dans laquelle nous avons identifié quatre cas atteints d’une neuropathie héréditaire sensitive avec rétinite pigmentaire et ataxie (NHSRPA). Nous avons émis l’hypothèse que nous étions en présence d’une nouvelle forme de neuropathie héréditaire sensitive récessive à effet fondateur. Afin d’identifier la position chromosomique du gène muté responsable de la NHSRPA, nous avons tout d’abord complété un criblage du génome en génotypant des marqueurs microsatellites «single tandem repeat» (STR) sur des individus clés et nous avons ensuite procédé à une analyse de liaison génétique paramétrique. Ces études nous ont permis de lier cette famille au chromosome 1 et de définir un premier intervalle candidat de 6,7 Mb. Grâce à un génotypage de marqueurs «single nucleotide polymorphism» (SNP), nous avons réduit l’intervalle candidat à 5,3 Mb au locus 1q32,2-q32,3. Cette région contient 44 gènes candidats. Une revue plus fine de la littérature a fait ressortir qu’une famille espagnole et une américaine de souche hollandaise souffrant de la même maladie avaient déjà été liées au même locus. L’origine possiblement basque de notre famille gaspésienne nous a poussé à comparer l’haplotype porteur avec celui de la famille espagnole qui, quoi que gitane, provient du pays basque espagnol. Ces travaux ont démontré le partage d’une région de 203 kb. Afin de rétrécir davantage notre intervalle candidat, nous avons comparé les haplotypes des cas entre les deux familles et nous avons identifié un dernier intervalle candidat de 60 SNP au locus 1q32,3. Cette région ne contient que quatre gènes candidats dont le plus intéressant est le gène «activating transcription factor» (ATF3). À ce jour, aucune mutation n’a été trouvée dans le gène ATF3 et les gènes FAM71A, BATF3 et NSL1. Des expériences supplémentaires sont nécessaires afin d’identifier le gène muté responsable de la NHSRPA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Most panel unit root tests are designed to test the joint null hypothesis of a unit root for each individual series in a panel. After a rejection, it will often be of interest to identify which series can be deemed to be stationary and which series can be deemed nonstationary. Researchers will sometimes carry out this classification on the basis of n individual (univariate) unit root tests based on some ad hoc significance level. In this paper, we demonstrate how to use the false discovery rate (FDR) in evaluating I(1)=I(0) classifications based on individual unit root tests when the size of the cross section (n) and time series (T) dimensions are large. We report results from a simulation experiment and illustrate the methods on two data sets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quelle est la nature des représentations que se font les gens des catégories apprises? Il est généralement accepté que le type de tâche d’apprentissage a une influence sur la réponse à cette question. Ceci étant dit, la majorité des théories portant sur les processus de catégorisation élaborées durant les dernières décennies a porté presqu’exclusivement sur des tâches de classifications d’exemplaires. Le mémoire présenté ici avait quatre objectifs principaux. Le premier était de vérifier si une tâche d’apprentissage de catégories implicites par classifications mène davantage à l’intégration de dimensions diagnostiques qu’un apprentissage par inférences. Le deuxième était de vérifier si une tâche d’apprentissage de catégories implicites par inférences entraine davantage l’intégration de dimensions typiques qu’un apprentissage par classifications. Le troisième était d’évaluer si un effet de rehaussement du prototype (« prototype enhancement effect ») pouvait être observé dans le cadre d’un apprentissage par inférences. Le quatrième était de clarifier quelle est la mesure de tendance centrale qui présente réellement un effet de rehaussement du prototype : le mode, la médiane ou la moyenne. Suite aux résultats obtenus, les implications pour trois théories portant sur les processus de catégorisation sont discutées. Les trois théories sont celles des prototypes, des exemplaires et des frontières décisionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’œuvre de JMG Le Clézio se caractérise par sa perpétuelle évolution. Elle échappe aux classifications génériques et maintient son statut subversif et indépendant. L’écriture de cet écrivain traduit les diverses influences qui l’ont marqué, les problèmes auxquels il fait face et la thématique majeure dans laquelle il inscrit son œuvre. À travers l’étude de La quarantaine, paru en 1995, nous essayerons lors du premier chapitre de comprendre comment Le Clézio réinvente son écriture pour remédier au problème de l’impureté du langage qui caractérisait son œuvre d’avant les années quatre-vingts. Dans le deuxième chapitre, nous analyserons les thématiques littéraire, familiale et historique qui font de cet ouvrage un roman de filiation. La quarantaine insiste sur l’importance de l’altérité traditionnelle et non occidentale en tant que facteur dans ce changement romanesque, et dont le mode de vie réfléchit différemment le problème de l’identité chez l’individu occidental. Dans le troisième chapitre, nous aborderons la question des enjeux de l’identité à travers l’expérience initiatique à laquelle se livre le protagoniste de La quarantaine en quête d’un devenir identitaire, d’une émancipation qui réconcilie l’individu moderne avec soi-même.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les ataxies héréditaires sont des désordres neuro-dégénératifs qui causent une ataxie comme symptôme primaire; soit une perte de coordination des mouvements volontaires, un sens de l’équilibre déficient et un trouble à la motricité. Elles forment un groupe cliniquement et génétiquement hétérogène. De ce fait, de nombreuses classifications existent basées sur différents critères. Cependant, le consensus actuel veut que le mode de transmission soit le critère premier de classement. On estime la prévalence mondiale des ataxies héréditaires à 6/100 000 bien que ce nombre diffère entre régions. C’est le cas du Québec où la structuration historique du bassin génétique canadien-français a menée à des effets fondateurs régionaux, ce qui a eu comme conséquence de hausser la prévalence régionale de certaines maladies. L’Acadie est également une région canadienne-française avec des effets fondateurs où le taux de prévalence de certaines ataxies héréditaires est plus élevé. Nous avons recruté huit familles canadiennes-françaises provenant de diverses régions du Québec, ayant un lien génétique plus ou moins rapproché avec l’Acadie, dans lesquelles nous avons observé dix cas d’une forme d’ataxie spastique autosomique récessive relativement légère qui a résistée à l’analyse des gènes d’ataxies connues. Nous avons émis l’hypothèse d’être en présence d’une nouvelle forme d’ataxie à effet fondateur pour la population canadienne-française. Afin d’identifier le gène muté responsable de cette ataxie, un criblage génomique des marqueurs SNP pour les individus recrutés fut effectué. Puis, par cartographie de l’homozygotie, une région de 2,5 Mb fut identifiée sur le chromosome 17p13 dans une famille. Une revue de la littérature nous a permis de constater, qu’en 2007, quatre familles nord-africaines atteintes d’une ataxie dénommée SPAX2 qui présentaient des manifestations cliniques semblables avaient déjà été liées au même locus sur le chromosome 17. Afin de supporter notre hypothèse que les malades étaient porteurs de deux copies de la même mutation fondatrice et de cartographier plus finement notre région d’intérêt, les haplotypes de tous les atteints de nos huit familles furent étudiés. Nous avons établie qu’un intervalle de 200 kb (70 SNP), soit du marqueur rs9900036 à rs7222052, était partagé par tous nos participants. Les deux gènes les plus prometteurs des 18 se trouvant dans la région furent séquencés. Aucune mutation ne fut trouvée dans les gènes SLC25A11 et KIF1C. Par la suite, une analyse de liaison génétique stricte avec calcul de LOD score nous a permis d’exclure ce locus de 200 kb comme étant celui porteur du gène muté causant l’ataxie dans la majorité de nos familles. Nous avons donc conclus que malgré qu’une famille soit homozygote pour une grande région du chromosome 17, l’absence d’Informativité des marqueurs SNP dans la région de 200 kb fut responsable de l’apparent partage d’haplotype homozygote. Le travail reste donc entier afin d’identifier les mutations géniques responsables de la présentation ataxique chez nos participants de souche acadienne.