213 resultados para problème des deux échantillons

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

À partir des années 1960, avec l’apparition d’un « nous » québécois territorialement défini, intellectuels et groupes de pression se mettent à construire le « problème » de la sous-représentation des autochtones dans l’enseignement de l’histoire nationale à l’école au Québec. Nous comparons la place de ce « problème » à l’agenda des concepteurs des deux derniers programmes d’enseignement de l’histoire nationale à l’école secondaire au Québec : Histoire du Québec et du Canada (1982-2008) et Histoire et éducation à la citoyenneté (2007/2008-). Nous montrons que ce « problème » n’a été inscrit avec proéminence qu’à l’agenda des concepteurs du nouveau programme. Comment expliquer cette différence entre l’agenda des concepteurs de ces deux programmes? En se basant sur l’approche des courants multiples développé par John Kingdon, nous montrons qu’à partir des années 1990, tous les éléments étaient réunis pour favoriser la mise à l’agenda de ce « problème » - courant des problèmes, courant des solutions, courant de la politique, entrepreneur politique et fenêtre d’opportunité. Par contraste, nous arguons qu’à la fin des années 1970, un élément manquait : le courant de la politique, et en particulier le « national mood ». Pour rendre ce concept moins a-historique, nous déclinons le « national mood » en trois niveaux hiérarchiques de croyances, selon la typologie de Sabatier et Jenkins-Smith (1993). Nous montrons qu’il y a eu un changement au niveau des croyances les plus fondamentales et inaltérables des élites intellectuelles et politiques québécoises entre la fin des années 1970 et les années 1990 consistant à reconnaître les peuples autochtones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’érosion des berges est un processus clé de la dynamique fluviale. Elle influence considérablement la charge sédimentaire des rivières et contrôle l’évolution latérale des chenaux. Les méthodes de caractérisation des mécanismes et des variables affectant l’érosion des berges sont toutefois imprécises et difficiles à appliquer. Ce projet a pour objectif de caractériser la dynamique actuelle des berges de deux tributaires contrastés du Saint-Laurent : les rivières Saint-François et Batiscan. Le premier objectif vise à quantifier les caractéristiques géotechniques de deux tronçons des rivières à l’étude près de l’embouchure avec le Saint-Laurent en décrivant la stratigraphie à différents sites typiques et en recueillant des échantillons de sédiments afin de mesurer différentes variables géotechniques (granulométrie, limites d’Atterberg, résistance à l’érosion mécanique, résistance à l’érosion fluviale). Le second objectif vise à quantifier les principales caractéristiques hydrodynamiques (précipitations, débits, cisaillements, vitesses) des deux sections de rivière. Le troisième et dernier objectif cherche à mesurer les taux d’érosion à l’échelle saisonnière en utilisant des relevés GPS et des chaînes d’érosion et à identifier les mécanismes d’érosion qui opèrent sur les rivières. Les résultats montrent une érosion importante des berges sur chacun des tributaires, mais les mécanismes qui la cause diffèrent. La Batiscan possède des berges dont le matériel est cohésif et ses berges sont principalement marquées par des ruptures de masse. La Saint-François présente des berges peu cohésives ce qui favorise l’érosion fluviale. Le taux de recul sur la rivière Saint-François est de l’ordre de 1 à 3 m/an dans certaines sections de la rivière. Une nouvelle méthode de mesure du cisaillement critique d’érosion fluviale à l’aide d’un chenal expérimental a été élaborée. Les cisaillements critiques obtenus se situent entre 1,19 et 13,41 Pa. Les résultats montrent que les facteurs jouant sur l’érosion des berges ont une variabilité intrinsèque et systémique difficile à mesurer. Le protocole expérimental développé dans ce projet s’est toutefois avéré utile pour étudier les principales variables qui influencent l’érosion des berges, tout en quantifiant les taux d’érosion et les mécanismes d’érosion de berge de deux tributaires importants du fleuve Saint-Laurent. Ce protocole pourrait être utile dans d’autres contextes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les champignons mycorhizien à arbuscules (CMA) sont des organismes pouvant établir des symbioses avec 80% des plantes terrestres. Les avantages d'une telle symbiose sont de plus en plus caractérisés et exploités en agriculture. Par contre, jusqu'à maintenant, il n'existe aucun outil permettant à la fois l'identification et la quantification de ces champignons dans le sol de façon fiable et rapide. Un tel outil permettrait, entre autres, de mieux comprendre les dynamiques des populations des endomycorhizes dans le sol. Pour les producteurs d'inoculum mycorhiziens, cela permettrait également d'établir un suivi de leurs produits en champs et d'avoir un contrôle de qualité de plus sur leurs inoculants. C'est ce que nous avons tenté de développer au sein du laboratoire du Dr. Hijri. Depuis environ une trentaine d'années, des outils d'identification et/ou de quantification ont été développés en utilisant les profiles d'acides gras, les isozymes, les anticorps et finalement l'ADN nucléaire. À ce jour, ces méthodes d’identification et de quantification sont soit coûteuses, soit imprécises. Qui plus est, aucune méthode ne permet à la fois la quantification et l’identification de souches particulières de CMA. L’ADN mitochondrial ne présente pas le même polymorphisme de séquence que celui qui rend l’ADN nucléaire impropre à la quantification. C'est pourquoi nous avons analysé les séquences d’ADN mitochondrial et sélectionné les régions caractéristiques de deux espèces de champignons mycorhiziens arbusculaires (CMA). C’est à partir de ces régions que nous avons développé des marqueurs moléculaires sous forme de sondes et d’amorces TaqMan permettant de quantifier le nombre de mitochondries de chacune de ces espèces dans un échantillon d’ADN. Nous avons ensuite tenté de déterminer une unité de quantification des CMA, soit un nombre de mitochondries par spore. C’est alors que nous avons réalisé que la méthode de préparation des échantillons de spores ainsi que la méthode d’extraction d’ADN avaient des effets significatifs sur l’unité de quantification de base. Nous avons donc optimisé ces protocoles, avant d’en e tester l’application sur des échantillons de sol et de racines ayant été inoculés avec chacune des deux espèces cibles. À ce stade, cet outil est toujours semi-quantificatif, mais il permet 9 l’identification précise de deux espèces de CMA compétentes dans des milieux saturés en phosphore inorganique. Ces résultats , en plus d’être prometteurs, ont permis d’augmenter les connaissances méthodologiques reliées à la quantification des CMA dans le sol, et suggèrent qu’à cause de leurs morphologies différentes, l’élaboration d’un protocole de quantification standardisé pour toutes les espèces de CMA demeure un objectif complexe, qui demande de nouvelles études in vivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dépression postnatale (DP) est un problème de santé publique très fréquent dans différentes cultures (Affonso et al, 2000). En effet, entre 10% à 15% des mères souffrent d’une symptomatogie dépressive ainsi que l’indiquent Gorman et al. (2004). La prévention de la DP est l’objectif de différents programmes prénatals et postnatals (Dennis, 2005; Lumley et al, 2004). Certains auteurs notent qu’il est difficile d’avoir accès aux femmes à risque après la naissance (Evins et al, 2000; Georgiopoulos et al, 2001). Mais, les femmes fréquentent les centres de santé pendant la grossesse et il est possible d’identifier les cas à risque à partir des symptômes prénataux dépressifs ou somatiques (Riguetti-Veltema et al, 2006); d’autant plus qu’un grand nombre de facteurs de risque de la DP sont présents pendant la grossesse (O’Hara et Gorman, 2004). C’est pourquoi cette étude fut initiée pendant le premier trimestre de la grossesse à partir d’une détection précoce du risque de DP chez n= 529 femmes de classes moyenne et défavorisée, et, cela, au moyen d’un questionnaire validé utilisé à l’aide d’une entrevue. L’étude s’est effectuée dans trois villes : Barcelone, Figueres, et Béziers au cours des années 2003 à 2005. Objectif général : La présente étude vise à évaluer les effets d’un programme prénatal de groupes de rencontre appliqué dans la présente étude chez des couples de classe socioéconomique non favorisée dont les femmes sont considérées comme à risque de dépression postnatale. L’objectif spécifique est de comparer deux groupes de femmes (un groupe expérimental et un groupe témoin) par rapport aux effets du programme prénatal sur les symptômes de dépression postnatale mesurés à partir de la 4ème semaine après l’accouchement avec l’échelle EPDS. Hypothèse: Les femmes participant au programme prénatal de groupe adressé aux couples parentaux, composé de 10 séances hebdomadaires et inspiré d’une orientation psychosomatique présenteront, au moins, un taux de 6% inférieur de cas à risque de dépression postnatale que les femmes qui ne participent pas, et cela, une fois évaluées avec l’échelle EPDS (≥12) 4 semaines après leur accouchement. Matériel et méthode: La présente étude évaluative est basée sur un essai clinique randomisé et longitudinal; il s’étend de la première ou deuxième visite d’échographie pendant la grossesse à un moment situé entre la 4ème et la 12ème semaine postnatale. Les participants à l’étude sont des femmes de classes moyenne et défavorisée identifiées à risque de DP et leur conjoint. Toutes les femmes répondant aux critères d’inclusion à la période du recrutement ont effectué une entrevue de sélection le jour de leur échographie prénatale à l’hôpital (n=529). Seules les femmes indiquant un risque de DP furent sélectionnées (n= 184). Par la suite, elles furent distribuées de manière aléatoire dans deux groupes: expérimental (n=92) et témoin (n=92), au moyen d’un programme informatique appliqué par un statisticien considérant le risque de DP selon le questionnaire validé par Riguetti-Veltema et al. (2006) appliqué à l’aide d’une entrevue. Le programme expérimental consistait en dix séances hebdomadaires de groupe, de deux heures et vingt minutes de durée ; un appel téléphonique entre séances a permis d’assurer la continuité de la participation des sujets. Le groupe témoin a eu accès aux soins habituels. Le programme expérimental commençait à la fin du deuxième trimestre de grossesse et fut appliqué par un médecin et des sages-femmes spécialement préparées au préalable; elles ont dirigé les séances prénatales avec une approche psychosomatique. Les variables associées à la DP (non psychotique) comme la symptomatologie dépressive, le soutien social, le stress et la relation de couple ont été évaluées avant et après la naissance (pré-test/post-test) chez toutes les femmes participantes des deux groupes (GE et GC) utilisant : l’échelle EPDS (Cox et al,1987), le Functional Social Support Questionnaire (Broadhead et al, 1988), l’évaluation du stress de Holmes et Rahe (1967) et, l’échelle d’ajustement dyadique de Spanier (1976). La collecte des données prénatales a eu lieu à l’hôpital, les femmes recevaient les questionnaires à la fin de l’entrevue, les complétaient à la maison et les retournaient au rendez-vous suivant. Les données postnatales ont été envoyées par les femmes utilisant la poste locale. Résultats: Une fois évalués les symptômes dépressifs postnatals avec l’échelle EPDS entre la 4ème et la 12ème semaine postnatale et considérant le risque de DP au point de césure ≥ 12 de l’échelle, le pourcentage de femmes à risque de DP est de 39,34%; globalement, les femmes étudiées présentent un taux élevé de symptomatologie dépressive. Les groupes étant comparables sur toutes les variables prénatales, notons une différence dans l’évaluation postnatale de l’EPDS (≥12) de 11,2% entre le groupe C et le groupe E (45,5% et 34,3%). Et la différence finale entre les moyennes de l’EPDS postnatal est de 1,76 ( =11,10 ±6,05 dans le groupe C et =9,34 ±5,17 dans le groupe E) ; cette différence s’aproche de la limite de la signification (p=0,08). Ceci est dû à un certain nombre de facteurs dont le faible nombre de questionnaires bien complétés à la fin de l’étude. Les femmes du groupe expérimental présentent une diminution significative des symptômes dépressifs (t=2,50 / P= 0,01) comparativement au pré-test et indiquant une amélioration au contraire du groupe témoin sans changement. Les analyses de régression et de covariance montrent que le soutien social postnatal, les symptômes dépressifs prénatals et le stress postnatal ont une relation significative avec les symptômes dépressifs postnatals (P<0,0001 ; P=0.003; P=0.004). La relation du couple n’a pas eu d’impact sur le risque de DP dans la présente étude. Par contre, on constate d’autres résultats secondaires significatifs: moins de naissances prématurées, plus d’accouchements physiologiques et un plus faible taux de somatisations non spécifiques chez les mères du groupe expérimental. Recommandations: Les résultats obtenus nous suggèrent la considération des aspects suivants: 1) il faudrait appliquer les mesures pour détecter le risque de DP à la période prénatale au moment des visites d’échographie dont presque toutes les femmes sont atteignables; il est possible d’utiliser à ce moment un questionnaire de détection validé car, son efficacité semble démontrée; 2) il faudrait intervenir auprès des femmes identifiées à risque à la période prénatale à condition de prolonger le programme préventif après la naissance, tel qu’indiqué par d’autres études et par la demande fréquente des femmes évaluées. L’intervention prénatale de groupe n’est pas suffisante pour éviter le risque de DP chez la totalité des femmes. C’est pourquoi une troisième recommandation consisterait à : 3) ajouter des interventions individuelles pour les cas les plus graves et 4) il paraît nécessaire d’augmenter le soutien social chez des femmes défavorisées vulnérables car cette variable s’est révélée très liée au risque de dépression postnatale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Malgré les avancées médicales, la prédiction précoce du devenir développemental des enfants nés prématurément demeure un défi. Ces enfants sont à risque de séquelles plus ou moins sévères telles l'infirmité motrice d'origine cérébrale, les déficiences intellectuelles et sensorielles ainsi que les difficultés d'apprentissage. Afin de diminuer l’impact fonctionnel de ces séquelles, l’identification de marqueurs précoces devient un enjeu important. Dans le contexte actuel de ressources financières et humaines limitées, seuls les enfants nés avant 29 semaines de gestation ou avec un poids de naissance (PN) <1250g sont systématiquement suivis, laissant pour compte 95% des enfants prématurés. L’identification de marqueurs précoces permettrait de cibler les enfants nés après 28 semaines de gestation porteurs de séquelles. Le principal objectif des présents travaux visait à évaluer l’utilité de l’Évaluation neurologique d’Amiel-Tison (ENAT) dans l’identification et le suivi des enfants nés entre 29 et 37 semaines de gestation et qui présenteront des problèmes neurodéveloppementaux à l’âge corrigé (AC) de 24 mois. Plus précisément, la fidélité inter-examinateurs, la stabilité ainsi que la validité prédictive de l’ENAT ont été évaluées. La cohorte était composée initialement de 173 enfants nés entre 290/7 et 370/7 semaines de gestation, avec un PN<2500g et ayant passé au moins 24 heures à l’unité de soins néonatals du CHU Sainte-Justine. Les enfants étaient évalués avec l’ENAT à terme et aux AC de 4, 8, 12 et 24 mois. À l’AC de 24 mois, leur développement était évalué à l’aide du Bayley Scales of Infant Development–II. Les principaux résultats révèlent une excellente fidélité inter-examinateurs ainsi qu’une bonne stabilité au cours des deux premières années de vie du statut et des signes neurologiques. Des différences significatives à l’AC de deux ans ont été relevées aux performances développementales en fonction du statut neurologique à terme, qui constitue l’un des meilleurs facteurs prédictifs de ces performances. Les résultats encouragent l’intégration du statut neurologique tel que mesuré par l’ENAT comme marqueur précoce dans le cours d’une surveillance neurodéveloppementale des enfants les plus à risque.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis plus de 50 ans, les chercheurs s’intéressent à la résistance au changement. Or, malgré plusieurs années de recherche, on ne sait toujours pas exactement quelles variables peuvent prédire les comportements de résistance et encore moins ceux de soutien. La présente thèse vise à pallier cette lacune en identifiant des variables pouvant expliquer à la fois les comportements de soutien et de résistance lors d’un changement organisationnel majeur. Le modèle des phases de préoccupations (Bareil 2004a) s’avère intéressant à cet effet puisqu’il intègre bien les savoirs actuels et s’adapte à différents changements. L’objectif principal de cette thèse est donc de vérifier jusqu’à quel point les comportements de soutien et de résistance peuvent être prédits par les phases de préoccupations, en tenant compte de l’engagement affectif envers le changement comme variable médiatrice et du rôle des acteurs et de l’avancement de la mise en œuvre comme variables modératrices. Pour ce faire, une étude a été menée auprès d’enseignants, de professionnels et de directeurs d’une Commission scolaire québécoise ayant implanté une réforme majeure provoquant des préoccupations d’intensité variée et des comportements divers, allant de la résistance au soutien. Les analyses acheminatoires effectuées auprès de deux échantillons indépendants (n=464 et n=171) indiquent que les premières phases du modèle (centrées sur le destinataire, l’organisation et le changement) sont liées positivement aux comportements de résistance et négativement à ceux de soutien. À l’inverse, les dernières phases (centrées sur l’expérimentation, la collaboration et l’amélioration continue) sont liées négativement aux comportements de résistance et positivement à ceux de soutien. Ainsi, plus on avance dans la séquence des phases de préoccupations, plus les comportements de soutien augmentent et ceux de résistance diminuent. Également, l’engagement affectif envers le changement agit à titre de variable médiatrice et permet d’expliquer davantage de variance des comportements de soutien et de résistance. De plus, les analyses de régression indiquent que les phases de préoccupations expliquent davantage de variance des comportements de soutien des agents de changement, alors qu’elles expliquent plus de variance des comportements de résistance des destinataires. On constate aussi que c’est au début de la mise en œuvre que les phases de préoccupations expliquent le plus de variance des comportements de soutien et de résistance. Finalement, un troisième échantillon (n=143) permet de suivre l’évolution des participants ayant répondu deux fois au questionnaire. Les tests t ne rapportent aucune différence significative entre les deux temps de mesure et ce, autant pour les phases de préoccupations que pour les comportements de soutien et de résistance. On constate que lorsque les phases de préoccupations n’évoluent pas, les comportements de soutien ou de résistance demeurent les mêmes. En somme, ces résultats indiquent qu’il est possible de prédire à la fois les comportements de soutien et de résistance avec les phases de préoccupations. En outre, on sait maintenant à quel moment et avec quel type d’acteurs le modèle des phases de préoccupations s’avère le plus utile. Afin de généraliser ces résultats, il serait pertinent de reproduire cette recherche dans une autre organisation qui implante un changement majeur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les taux de mortalité maternelle et néonatale restent importants dans les pays en développement. L’ampleur de ces phénomènes est liée à une constellation de facteurs. Mais une part importante des issues défavorables de la grossesse et de la naissance est attribuable à des causes évitables et des comportements modifiables. Les interventions éducatives prénatales ont été élaborées dans le but d’adresser les facteurs affectant la demande de soins maternels et néonatals efficaces. Les stratégies éducatives ciblant les femmes enceintes incluent les conseils individuels, les sessions de groupes et la combinaison des deux stratégies. Ces stratégies visent à améliorer les connaissances sur les questions de santé maternelle et néonatale et à favoriser l’utilisation adéquate de soins qualifiés et les pratiques hygiéniques à domicile. L’Organisation Mondiale de la Santé (OMS) a diffusé dans les pays en développement des guides de pratiques en soins maternels et néonatals incluant les conseils de préparation à la naissance, lors des visites prénatales de routine. Toutefois, peu de données sont disponibles quant à l’efficacité et l’implantation effective de l’éducation prénatale dans les dits pays. Cette thèse cherche à mieux comprendre l’impact des programmes d’éducation prénatale implantés dans deux contextes à risques maternels et néonatals élevés au Burkina Faso. Rédigée sous forme d’articles, la thèse propose trois objectifs spécifiques : 1) examiner l’efficacité théorique des programmes d’éducation prénatale pour réduire la mortalité maternelle et néonatale dans les pays en développement; 2) évaluer l’association entre différents facteurs organisationnels et l’exposition des femmes aux conseils de préparation à la naissance qui font habituellement partie intégrante des programmes d’éducation prénatale implantés dans les services prénatals de routine; et 3) déterminer l’impact de recevoir des conseils de préparation à la naissance sur la probabilité d’accouchement institutionnel. Pour répondre au premier objectif, une méta-analyse de données issues d’essais randomisés a été effectuée. Concernant les réponses aux deux autres objectifs, les données d’une étude de cohorte rétrospective ont été utilisées. Cette étude observationnelle, conçue spécialement pour la thèse, a été menée dans deux districts à risques maternels et néonatals élevés (Dori et Koupela) du Burkina Faso. Les résultats observés à travers les trois investigations sont utiles pour l’avancement des connaissances et la pratique. La méta-analyse révèle que les interventions éducatives expérimentales sont associées à une réduction de 24% de la mortalité néonatale. Cette réduction atteint 30% dans les milieux à très forte mortalité néonatale. En situation de routine, divers facteurs organisationnels peuvent limiter ou faciliter la transmission des conseils éducatifs aux femmes usagères de soins prénatals. Au, Burkina Faso, les données analysées indiquent des fortes disparités entre les deux districts à l’étude. Les femmes du district de Koupela étaient significativement plus exposées aux conseils que celles de Dori. Au delà de cette disparité régionale, deux autres facteurs organisationnels sont fortement associés à l’exposition des femmes aux conseils de préparation à la naissance lors des visites prénatales de routine. Il s’agit de la disponibilité de supports de communication imagés dans l’établissement et le volume réduit de consultations par jour (moins de 20 consultations en moyenne versus 20 ou plus) augurant de moindres charges de travail pour le personnel. Enfin, les conseils reçus par les femmes sur les signes de complications obstétricales et sur les coûts des soins sont significativement associés à une probabilité plus élevée d’accoucher en institution; et ce, seulement dans le district de Dori où le taux d’accouchements institutionnels était relativement faible. En conclusion, l’éducation prénatale est bénéfique pour la sante maternelle et néonatale. Cependant, l’implantation et les effets sont hétérogènes selon les milieux. D’autres études expérimentales et observationnelles sont requises pour renforcer les évidences et investiguer plus en profondeur les facteurs de réussite afin de mieux orienter l’intervention. Les expérimentations futures devraient mesurer des issues de grossesses relatives à la mère (l’assistance qualifiée, les soins postpartum et la mortalité maternelle). Des études de cohorte prospectives avec des grands échantillons représentatifs permettraient de documenter de façon plus valide les événements et les expositions aux interventions durant la grossesse, l’accouchement et le postpartum.