424 resultados para Écart
Resumo:
L’incontinence urinaire d’effort (IUE) est une condition fréquente en période postnatale pouvant affecter jusqu’à 77% des femmes. Neuf femmes sur dix souffrant d’IUE trois mois après l’accouchement, vont présenter une IUE cinq ans plus tard. Le traitement en physiothérapie de l’IUE par le biais d’un programme d’exercices de renforcement des muscles du plancher pelvien est reconnu comme étant un traitement de première ligne efficace. Les études ont prouvé l’efficacité de cette approche sur l’IUE persistante à court terme, mais les résultats de deux ECR à long terme n’ont pas démontré un maintien de l’effet de traitement. L’effet d’un programme en physiothérapie de renforcement du plancher pelvien intensif et étroitement supervisé sur l’IUE postnatale persistante avait été évalué lors d’un essai clinique randomisé il y a sept ans. Le but principal de la présente étude était d’évaluer l’effet de ce programme sept ans après la fin des interventions de l’ECR initial. Un objectif secondaire était de comparer l’effet de traitement à long terme entre un groupe ayant fait seulement des exercices de renforcement du plancher pelvien et un groupe ayant fait des exercices de renforcement du plancher pelvien et des abdominaux profonds. Un troisième objectif était d’explorer l’influence de quatre facteurs de risques sur les symptômes d’IUE et la qualité de vie à long terme. Les cinquante-sept femmes ayant complétées l’ECR initial ont été invitées à participer à l’évaluation du suivi sept ans. Vingt et une femmes ont participé à l’évaluation clinique et ont répondu à quatre questionnaires, tandis que dix femmes ont répondu aux questionnaires seulement. L’évaluation clinique incluait un pad test et la dynamométrie du plancher pelvien. La mesure d’effet primaire était un pad test modifié de 20 minutes. Les mesures d’effets secondaires étaient la dynamométrie du plancher pelvien, les symptômes d’IUE mesuré par le questionnaire Urogenital Distress Inventory, la qualité de vie mesurée par le questionnaire Incontinence Impact Questionnaire et la perception de la sévérité de l’IUE mesuré par l’Échelle Visuelle Analogue. De plus, un questionnaire portant sur quatre facteurs de risques soit, la présence de grossesses subséquentes, la v présence de constipation chronique, l’indice de masse corporel et la fréquence des exercices de renforcement du plancher pelvien de l’IUE, venait compléter l’évaluation. Quarante-huit pour-cent (10/21) des participantes étaient continentes selon de pad test. La moyenne d’amélioration entre le résultat pré-traitement et le suivi sept ans était de 26,9 g. (écart-type = 68,0 g.). Il n’y avait pas de différence significative des paramètres musculaires du plancher pelvien entre le pré-traitement, le post-traitement et le suivi sept ans. Les scores du IIQ et du VAS étaient significativement plus bas à sept ans qu’en prétraitement (IIQ : 23,4 vs 15,6, p = 0,007) et (VAS : 6,7 vs 5,1, p = 0,001). Les scores du UDI étaient plus élevés au suivi sept ans (15,6) qu’en pré-traitement (11,3, p = 0,041) et en post-traitement (5,7, p = 0,00). La poursuite des exercices de renforcement du plancher pelvien à domicile était associée à une diminution de 5,7 g. (p = 0,051) des fuites d’urine observées au pad test selon une analyse de régression linéaire. Les limites de cette étude sont ; la taille réduite de l’échantillon et un biais relié au désir de traitement pour les femmes toujours incontinentes. Cependant, les résultats semblent démontrer que l’effet du traitement à long terme d’un programme de renforcement des muscles du plancher pelvien qui est intensif et étroitement supervisé, est maintenu chez environ une femme sur deux. Bien que les symptômes d’IUE tel que mesuré par les pad test et le questionnaire UDI, semblent réapparaître avec le temps, la qualité de vie, telle que mesurée par des questionnaires, est toujours meilleure après sept qu’à l’évaluation initiale. Puisque la poursuite des exercices de renforcement du plancher pelvien est associée à une diminution de la quantité de fuite d’urine au pad test, les participantes devraient être encouragées à poursuivre leurs exercices après la fin d’un programme supervisé. Pour des raisons de logistique la collecte de donnée de ce projet de recherche s’est continuée après la rédaction de ce mémoire. Les résultats finaux sont disponibles auprès de Chantale Dumoulin pht, PhD., professeure agrée à l’Université de Montréal.
Resumo:
La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.
Resumo:
L’essor continu de l’économie canadienne repose grandement sur l’immigration. Toutefois, le Canada a encore du chemin à faire pour assurer l’intégration des nouveaux arrivants sur le marché du travail. Notre recherche porte sur un moyen souvent considéré comme essentiel pour accomplir cette intégration : la formation liée à l’emploi. L’expression « formation liée à l’emploi » fait référence aux activités d’apprentissage en lien avec un emploi et parrainées par l’employeur. Nous avons deux objectifs. Le premier est de déterminer si les immigrants et les Canadiens de naissance ont les mêmes chances de participer à des activités de formation liée à l’emploi. Le deuxième est d’examiner l’effet du sexe et de la durée depuis l’immigration sur la probabilité qu’un immigrant participe à la formation liée à l’emploi. Notre analyse est de type quantitatif et utilise les données de l’Enquête sur l’éducation et la formation des adultes de l’année 2003, menée par Statistiques Canada. Concernant le premier objectif, il ressort de nos analyses que les travailleurs immigrants sont moins susceptibles que les Canadiens de naissance de participer à la formation liée à l’emploi. Même si d'autres études ont remarqué un écart semblable entre ces deux groupes, notre recherche a la particularité de contrôler l'impact de six variables qui, selon la littérature, affectent le niveau de participation à la formation liée à l’emploi. Cette particularité réduit la probabilité que la différence observée entre les immigrants et les Canadiens de naissance puisse être le résultat d'un facteur autre que le statut d'immigrant. Quant au deuxième objectif, notre étude montre que la durée depuis l'immigration augmente les chances qu'un immigrant participe à la formation liée à l’emploi. Néanmoins, la question concernant l'impact du sexe de l’immigrant demeure ouverte. En effet, à l’encontre de nos attentes, nous n’avons pas observé d’effet statistiquement significatif du sexe sur la relation entre le statut d’immigrant et la participation à la formation liée à l’emploi. Notre recherche permet d'attirer le regard sur un possible facteur modérateur qui mérite plus de réflexion de la part des chercheurs.
Resumo:
Ce mémoire analyse la stratégie d’affirmation de puissance mise en oeuvre par la Chine dans le contexte post-Guerre froide, caractérisé par la seule superpuissance des États-Unis, en utilisant le cadre théorique du réalisme offensif. Challenger désigné des États-Unis, la Chine a basculé dans le 21ème siècle avec un défi important à relever. La prépondérance américaine continue d’être une donnée essentielle dans le système politique mondial. Les États-Unis produisent plus du quart du total de l’économie mondiale et comptent pour près de la moitié des dépenses militaires. La Chine, de son côté, avec ses 1.3 milliards d’habitants, une croissance économique quasiexponentielle, dotée d’un arsenal nucléaire conventionnel, est la principale puissance émergente, avec le potentiel de rivaliser avec les États-Unis dans les affaires mondiales. Mais, vu l’énorme écart qui les sépare, pour la Chine la question de l’hégémonie américaine se pose sous la forme d’une équation dont la seule variable connue est le potentiel de l’adversaire à affronter. Le principal problème auquel la Chine est confrontée est dès lors sa capacité de penser une stratégie sans toutefois courir le risque de provoquer la seule superpuissance du globe. Par conséquent, cette étude analyse les politiques et actions stratégiques développées par la Chine à la lumière des contraintes que lui impose un environnement international peu favorable. Elle s’intéresse en particulier à la manière dont Beijing a su exploiter avec maestria une des armes les plus redoutables de l’ère post-Guerre froide, sa puissance économique, afin de consolider son ascension au rang de grande puissance. Elle soutient que, tenant compte d’un retard considérable à combler, la Chine a entrepris de balancer la superpuissance américaine d’une manière pragmatique. A cet effet, elle a conçu une stratégie qui comprend deux grands piliers : sur le plan interne, des réformes économiques et militaires ; sur le plan externe, une diplomatie agressive et efficace en adéquation avec ses ambitions de puissance. Nous concluons qu’une telle stratégie vise à éviter à la Chine pour le moment tout risque de confrontation directe qui aurait pour principal effet de nuire à son ascension. Cependant, à mesure que sa puissance s’accroît, elle pourrait afficher une posture plus agressive, quitte à engager également, avec la seule superpuissance du monde, des compétitions de nature sécuritaire en Asie et au-delà de cette région.
Resumo:
Depuis qu’en 1977, en quatrième de couverture de Fils, Serge Doubrovsky employa le mot « autofiction » pour décrire son roman, les études doubrovskiennes ont eu tendance à se focaliser sur les questions génériques que sous-tendait ce néologisme. Ainsi on a écarté un autre aspect, tout aussi important, de l’œuvre de l’auteur : celui du lien avec le lecteur qui, en plus d’être mis en scène dans chacune des autofictions doubrovskiennes, est associé dès Fils au rapport complexe, inextricable et conflictuel entre les sexes. « J’écris mâle, me lis femelle », dit le narrateur-écrivain ‘Serge Doubrovsky’ – lui qui vivra sous nos yeux une série d’histoires passionnelles avec des compagnes qui sont également ses lectrices. Repris d’épisode en épisode, le rapport entre le héros doubrovskien et sa compagne du moment rappelle les hypothèses de Doubrovsky dans Corneille ou la dialectique du héros (1963), inspirées de la dialectique hégélienne du Maître et de l’Esclave. Cette thèse s’attache donc à analyser la relation dialectique auteur-lectrice telle que mise en scène et approfondie dans l’ensemble de l’édifice autofictionnel. Après présentation et étude des mécanismes dont se sert l’auteur pour construire son Lecteur Modèle (Première partie), les trois autres sections principales de la thèse sont consacrées à l’analyse de Fils et Un amour de soi (1977 et 1982 ; Deuxième partie) ; du Livre brisé et de l’Après-vivre (1989 et 1994 ; Troisième partie) ; et enfin de Laissé pour conte (1999 ; Quatrième partie). Il s’agira enfin de montrer la portée non seulement littéraire, mais également sociale (la réflexion s’élargit à chaque épisode pour aborder les questions de la réception contemporaine de l’œuvre littéraire) et historique (le motif Maître-Esclave s’inscrit dans l’Histoire de l’Europe du XXe siècle, plus précisément la Seconde Guerre mondiale et la Shoah) du thème dialectique doubrovskien.
Resumo:
Les gouvernements mondiaux et les organismes internationaux ont placé une haute priorité dans la prévention de la transmission mère-enfant du VIH. Cependant, bien qu'il y ait eu des progrès énormes rapportés dans des nations industrialisées, la situation dans les pays en voie de développement est encore déplorable; on y constate un grand écart entre l’engagement international pour réduire cette voie de transmission et l'accès aux interventions. Ceci peut être attribué à la situation économique déplorable dans plusieurs pays en voie de développement. Des interventions prioritaires en santé doivent donc être soigneusement sélectionnées afin de maximiser l'utilisation efficace des ressources limitées. L’évaluation économique est un outil efficace qui peut aider des décideurs à identifier quelles stratégies choisir. L'objectif de cette revue systématique est de recenser toutes les études d'évaluation économique existantes qui ont été effectuées dans les pays en voie de développement sur la prévention de la transmission mère-enfant du VIH. Notre revue a retenu 16 articles qui ont répondu aux critères d'inclusion. Nous avons conçu un formulaire pour l’extraction de données, puis nous avons soumis les articles à un contrôle rigoureux de qualité. Nos résultats ont exposé un certain nombre de défauts dans la qualité des études choisies. Nous avons également noté une forte hétérogénéité dans les estimations des paramètres de coût et d'efficacité de base, dans la méthodologie appliquée, ainsi que dans les écarts utilisés dans les analyses de sensibilité. Quelques interventions comportant la thérapie à la zidovudine ou à la nevirapine à court terme se sont avérées rentables, et ont enregistré des valeurs acceptables de coût-utilité. Les résultats des évaluations économiques analysées dans cette revue ont varié sur la base des facteurs suivants : la prévalence du VIH, la classification du pays selon le revenu, les infrastructures disponible, les coûts du personnel, et finalement les coûts des interventions, particulièrement les prix des médicaments.
Resumo:
Cette étude s’intéresse au discours des anciens combattants dans le cinéma français mettant en scène la Grande Guerre entre 1918 et 1939. L’objectif est de démontrer que le film propose une contre-histoire en permettant aux poilus d’exprimer leurs visions et leurs opinions sur 14-18 et sur la société de l’entre-deuxguerre. Utilisant leur expérience du front, les cinéastes deviennent historiens et témoins à la fois. Le film répond à un souci de préservation de la mémoire. Ayant été écarté de l’écriture de l’Histoire officielle, le témoignage des combattants se transpose dans l’image. Ils rétablissent ainsi les omissions et les inexactitudes. Parallèlement, le contexte politico-social influence l’interprétation du conflit, donnant lieu à des films commémoratifs ou politisés. Plus largement, cette étude s’interroge sur les permanences et les ruptures dans le discours dans l’entre-deux-guerre. Elle permet d’observer que la fiction peut en même temps être un témoignage historique de la Grande Guerre et une représentation du temps présent, en proposant une relecture des évènements.
Resumo:
Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La proprotéine convertase subtilisine/kexine-9 (PCSK9) a été identifiée comme le troisième locus impliqué dans l’hypercholestérolémie autosome dominante (ADH). Les deux autres gènes impliqués dans l’ADH encodent le récepteur des lipoprotéines de faible densité (LDLR) et l’apolipoprotéine B. La PCSK9 est une convertase qui favorise la dégradation du LDLR dans les hépatocytes et augmente le niveau plasmatique de cholestérol des LDL (LDL-C). Les mutations « gain de fonction » de la PCSK9 sont associées à un phénotype d’hypercholestérolémie familiale, tandis que les variantes « perte de fonction » sont associées à un LDL-C réduit et à un risque coronarien plus faible. Pour élucider le rôle physiologique de la PCSK9, nous avons étudié sa régulation génique. En utilisant le RT-PCR quantitatif dans des hépatocytes humains, nous avons analysé la régulation de PCSK9 sous différentes conditions modulant l’expression des gènes impliqués dans le métabolisme du cholestérol. Nous avons démontré que l’expression de la PCSK9 était induite par les statines de manière dose-dépendante et que cette induction était abolie par le mévalonate. De plus, le promoteur de PCSK9 contenait deux motifs conservés pour la régulation par le cholestérol : le sterol regulatory element (SRE) et un site Sp1. La PCSK9 circule dans le plasma sous des formes mature et clivée par la furine. Grâce à notre anticorps polyclonal, nous avons mis au point un test ELISA mesurant la PCSK9 plasmatique totale. Une étude transversale a évalué les concentrations plasmatiques de PCSK9 chez des sujets sains et hypercholestérolémiques, traités ou non par des statines ou une combinaison statine/ezetimibe. Chez 254 sujets sains, la valeur moyenne de PCSK9 (écart-type) était de 89,5 (31,9) µg/L. La concentration plasmatique de la PCSK9 corrélait avec celle de cholestérol total, du LDL-C, des triglycérides (TG), de la glycémie à jeun, l’âge et l’indice de masse corporelle. Le séquençage de PCSK9 chez des sujets aux extrêmes de la distribution des concentrations de PCSK9 de notre cohorte a révélé la présence d’une nouvelle variation « perte de fonction » : R434W. Chez 200 patients hypercholestérolémiques, la concentration de PCSK9 était plus élevée que chez les sujets sains (P<0,04). Elle a augmenté avec une dose croissante de statine (P<0,001), et a augmenté encore plus suite à l’ajout d’ezetimibe (P<0,001). Chez les patients traités, ceux présentant une hypercholestérolémie familiale (HF; due à une mutation du LDLR) avaient des concentrations plus élevées de PCSK9 que les non-HF (P<0,005), et la réduction de LDL-C corrélait positivement avec la concentration de PCSK9 atteinte de la même manière dans les deux sous-catégories (P<0,02 et P<0,005, respectivement). Par ailleurs, une incubation des cellules HepG2 (hépatocytes) et Caco-2 (entérocytes) avec de l’ezetimibe a provoqué une augmentation de l’ARNm de PCSK9 et de NPC1L1 de 1,5 à 2 fois (P<0,05), mais aucune variation significative de PCSK9 sécrétée n’a été observée, suggérant que ces lignées cellulaires ne sont pas un modèle idéal. Nous avons également mesuré le niveau de PCSK9 chez 1 739 Canadiens-français âgés de 9, 13 et 16 ans. La valeur moyenne (écart-type) de PCSK9 dans cette cohorte était de 84,7 (24,7) µg/L, légèrement plus basse que dans la cohorte d’adultes (89,5 (31,9) µg/L). Chez les garçons, la PCSK9 circulante diminuait avec l’âge, tandis que c’était l’inverse chez les filles. Il y avait des associations positives et significatives entre la PCSK9 et la glycémie à jeun, l’insulinémie, le HOMA-IR, et les paramètres lipidiques (TC, LDL-C, TG, HDL-C, apoAI et apoB). Dans l’analyse multivariée, une hausse de 10% de l’insulinémie à jeun était associée à une augmentation de 1 à 2% de PCSK9. La régulation de PCSK9 est typique de celle d’un gène impliqué dans le métabolisme des lipoprotéines et est probablement la cible du facteur de transcription «sterol regulatory element-binding protein » (SREBP-2). La concentration plasmatique de la PCSK9 est associée avec l’âge, le sexe, et de multiples marqueurs métaboliques chez les enfants et les adultes. La détection de la PCSK9 circulante chez les sujets HF et non-HF signifie que ce test ELISA spécifique à PCSK9 pourrait servir à suivre la réponse à la thérapie chez un grand éventail de sujets. PCSK9 semble être une cible thérapeutique prometteuse dans le traitement de l’hypercholestérolémie et de la maladie cardiovasculaire.
Resumo:
Au cours d'une transaction portant sur une acceptation bancaire (ci-après «BA» tel que dénommée dans le jargon juridique) différents types de relations peuvent s'établir entre les parties impliquées, certaines plus directes que d'autres. Dans une transaction donnée, à part le client et la banque, on peut trouver une ou plusieurs banques participantes et un ou plusieurs investisseurs, qui deviennent détenteurs de BA. La situation peut devenir complexe et les relations légales risquent de devenir assez compliquées. Cependant, il est important d'identifier si la relation s'est établie à travers l'instrument de BA, si elle existe par le biais d'une relation contractuelle ordinaire ou encore, si elle existe par le fait de la loi. Une bonne analyse des circonstances entourant la transaction, des facteurs connexes à la transaction et des droits et obligations qui existent entre les parties, sera nécessaire pour déterminer laquelle de la loi provinciale ou fédérale s'appliquera, et dans quelle mesure. Une fois accordée, la BA est gouvernée par la Loi sur les lettres de change. Toutes solutions apportées à un problème qui implique des BA, doivent, en principe, respecter la nature inhérente de la BA en tant qu'effet de commerce, gouverné par la loi fédérale. En matière de BA, c'est, soit la Loi sur les lettres de change soit la Loi sur les lettres et billets de dépôt (Depository Bills and Note Act) qui s'appliqueront à l'acte. Comme il existe des lois fédérales applicables à la BA, l'objet de notre étude est de déterminer si, et dans quelle circonstance la loi de la province, tel que le Code civil du Québec, trouvera application et éclaircira dans certains cas la disposition contenue dans la Loi sur les lettres de change, notamment lorsque les dispositions de ladite loi sont silencieuses ou ambigües. La solution la plus simple serait d'appliquer la loi provinciale aux matières qui ne sont pas traitées dans la loi, étant donné que les lois provinciales apportent souvent un complément à la législation fédérale. Cependant, la Loi sur les lettres de change contient des dispositions spéciales, tel que l'article 9 qui stipule : « 9. Les règles de la common law d'Angleterre, y compris en droit commercial, s'appliquent aux lettres, billets et chèques dans la mesure de leur compatibilité avec les dispositions expresses de la présente loi. » Cette disposition a crée une certaine confusion relativement à l'application du droit civil du Québec en matière de Lettres de change. En effet, il existe un doute quant à savoir si l'application de l'article 9 est une incorporation par référence qui exclue totalement l'application du droit civil. Cette question continue de se poser inexorablement dans la doctrine et la jurisprudence. Elle a en effet donné lieu à une série de théories quand au degré d'application de la common law en matière de lettres de change. Une revue de la jurisprudence dominante nous permet de conclure que les tribunaux ont accepté l'application du droit provinciale dans certaines questions impliquant les lettres de change. La question essentielle traitée lors de notre analyse est la suivante: lorsqu'un litige prend naissance dans une transaction de BA, quelle est la règle qui devra s'appliquer? Quel sera le droit qui gouvernera les problèmes émergeant dans une BA, celui du Code Civil du Québec ou celui de la common law d'Angleterre? Étant donne le nombre de cas qui sont portés devant les cours de justice en rapport avec des transactions de BA, comprendre quelle sera la loi applicable est d'une importance fondamentale. Pour répondre à cette question, nous commencerons par un examen de l'historique, du développement et de l'évolution de la BA. Afin de mieux comprendre la BA, nous débuterons par un bref survol des origines de cet instrument juridique. Dans le deuxième chapitre, nous analyserons la nature et le caractère légal de la BA. Cela constituera le cadre aux travers duquel nous pourrons identifier les règles et les principes qui s'appliquent aux différents aspects de la transaction de BA. Le chapitre trois fera l'objet d'un examen détaillé des mécanismes de l'opération de BA tout en étudiant de près les exigences imposées par la législation applicable. Après avoir examine l'aspect légal de la BA, nous procéderons au chapitre quatre, à l'étude de l'applicabilité de la loi provinciale relativement à certains aspects de la transaction de BA. A cet effet, nous examinerons les différentes approches de compréhension de la Loi sur les lettres de change et plus particulièrement la problématique rencontrée à l'article 9. Nous étudierons aussi l'application et l'interprétation de cette loi par les tribunaux du Québec au cours du siècle dernier. Les juges et les juristes se sont penchés sur les sens qu'a voulu donner le législateur lorsqu'il a stipulé dans l'article 9 «Le règles de la common law d'Angleterre, y compris en droit commercial, s appliquent aux lettres, billets et chèques dans la mesure de leur compatibilité avec les dispositions expresses de la présente loi ». Cette section doit-elle être appliquée à la lettre, nous obligeant à appliquer la common law d'Angleterre a chaque problème qui peut se poser en relation avec les lettres et les billets? Le Parlement a-t-il l'intention que cette disposition s'applique également au Québec, dont le droit privé est basé sur le système du Code Civil? Notre étude portera sur les différentes approches d'interprétation qui offrent une diversité de solutions au problème posé par l'article 9. Finalement, compte tenu des nouveaux développements législatifs, au chapitre cinq, nous proposons une méthode en vue de déterminer la loi applicable aux différents aspects de la transaction de BA. Notre analyse nous a conduit à adopter la solution proposée par la majorité des juristes, à la différence que notre approche de l'article 9 est basée sur des raisons de politique. Nous avons donc adopté la stricte dichotomie (en tant qu'effet négociable d'une part, et d'une sorte de contrat et de propriété de l'autre) en prenant en compte les difficultés inhérentes à déterminer quand l'un finit et l'autre commence. En conclusion, selon notre opinion, il existe deux solutions. Premièrement, il y a la possibilité que l'article 9 puisse être écarté. Dans ce cas, toutes les matières qui ne sont pas expressément évoquées dans la loi tomberont dans la compétence de la loi provinciale, comme c'est le cas dans d'autres types de législations fédérales. Dans ces situations, le droit civil du Québec joue un rôle supplétif dans les applications d'une loi fédérale au Québec. Deuxièmement, modifier l'article 9 plutôt que d'en écarter son application offre une autre possibilité. Incorporer la large stricte dichotomie dans l'article 9 nous semble être une solution préférable. La disposition pourrait se lire comme suit: « Les règles de la common law d'Angleterre incluant le droit commercial dans la mesure ou elles ne sont pas incompatibles avec les dispositions expresses de la Loi, s’appliquent aux lettres, billets, et chèques au sens stricte. Pour plus de certitude, les lettres et les billets au sens strict, incluent la forme, la délivrance et I’émission des lettres, billets, et chèques.» Ce type de changement se révélera être un pas important dans le but de clarifier la loi et déterminer l'équilibre à trouver entre l'application des lois fédérales et provinciales en matière de BA.
Resumo:
Les violations aux droits humains causent des milliers de victimes chaque année, des mécanismes de justice sont élaborés afin de répondre à ces crimes, mais les victimes demeurent peu consultées. Par le biais d’entretiens semi-directifs, cette étude présente le point de vue et les attentes des victimes de crimes contre l’humanité du Cambodge et du Rwanda sur la justice. La justice sociale constitue le cadre théorique de cette étude. Les résultats montrent que la justice pénale est centrale à la définition de la justice. La réparation et la vérité en constituent aussi les éléments essentiels. Toutefois, la capacité des tribunaux à rendre compte de la vérité est critiquée par les répondants créant un écart entre ce qu’elles veulent et ce qu’elles obtiennent. La qualité de la prise de décision et du traitement interpersonnel favorise aussi la perception de justice du point de vue des victimes. Les différentes composantes de la justice perçues, comme la punition, la réparation et la procédure, varient toutefois en fonction du contexte social et historique de la victimisation.
Resumo:
Depuis une trentaine d’années environ, les études sur la réfutation, ou elenchos (ἔλεγχος), se sont multipliées. Cet engouement n’est pas étranger à la publication d’un article de Gregory Vlastos, intitulé « The Socratic Elenchus », dans lequel sont abordées des thèses qui tranchent avec les théories généralement acceptées jusqu’alors. Or, il est intéressant de noter que Vlastos a complètement écarté l’Alcibiade de son étude, le jugeant apocryphe, et ce, même si les arguments apportés par les tenants de l'inauthenticité de l'Alcibiade sont loin d'être convaincants. Dans le cadre de ce mémoire, nous comptons mener une analyse détaillée du texte de Vlastos et de l’Alcibiade, en nous attachant particulièrement aux questions suivantes : qu’est-ce que l’Alcibiade nous dit de l’elenchos? Que nous apprend-il de nouveau? En quoi ces révélations originales viennent-elles invalider ou confirmer les théories de Vlastos ou notre conception traditionnelle de la réfutation socratique? Le premier chapitre s’intéressera principalement aux thèses présentées dans la dernière version de « The Socratic Elenchus », parue en 1994 dans Socratic Studies. Nous en ferons un résumé critique et nous intéresserons aux réactions de différents commentateurs. Le deuxième chapitre se concentrera quant à lui sur l’Alcibiade. Nous proposerons une analyse de ce dialogue en nous concentrant principalement sur le thème de l’elenchos, puis confronterons les principales thèses de Vlastos aux résultats de notre analyse. Notre mémoire montrera que la description de l'elenchos donnée par Vlastos ne correspond pas à celle fournie dans l’Alcibiade.