964 resultados para biens publics multiples
Resumo:
Les pratiques relationnelles de soin (PRS) sont au cœur même des normes et valeurs professionnelles qui définissent la qualité de l’exercice infirmier, mais elles sont souvent compromises par un milieu de travail défavorable. La difficulté pour les infirmières à actualiser ces PRS qui s’inscrivent dans les interactions infirmière-patient par un ensemble de comportements de caring, constitue une menace à la qualité des soins, tout en créant d’importantes frustrations pour les infirmières. En mettant l’accent sur l’aspect relationnel du processus infirmier, cette recherche, abordée sous l'angle du caring, renvoie à une vision novatrice de la qualité des soins et de l'organisation des services en visant à expliquer l’impact du climat organisationnel sur le façonnement des PRS et la satisfaction professionnelle d’infirmières soignantes en milieu hospitalier. Cette étude prend appui sur une adaptation du Quality-Caring Model© de Duffy et Hoskins (2003) qui combine le modèle d’évaluation de la qualité de Donabedian (1980, 1992) et la théorie du Human Caring de Watson (1979, 1988). Un devis mixte de type explicatif séquentiel, combinant une méthode quantitative de type corrélationnel prédictif et une méthode qualitative de type étude de cas unique avec niveaux d’analyse imbriqués, a été privilégié. Pour la section quantitative auprès d’infirmières soignantes (n = 292), différentes échelles de mesure validées, de type Likert ont permis de mesurer les variables suivantes : le climat organisationnel (global et cinq dimensions composites) ; les PRS privilégiées ; les PRS actuelles ; l’écart entre les PRS privilégiées et actuelles ; la satisfaction professionnelle. Des analyses de régression linéaire hiérarchique ont permis de répondre aux six hypothèses du volet quantitatif. Pour le volet qualitatif, les données issues des sources documentaires, des commentaires recueillis dans les questionnaires et des entrevues effectuées auprès de différents acteurs (n = 15) ont été traités de manière systématique, par analyse de contenu, afin d’expliquer les liens entre les notions d’intérêts. L’intégration des inférences quantitatives et qualitatives s’est faite selon une approche de complémentarité. Nous retenons du volet quantitatif qu’une fois les variables de contrôle prises en compte, seule une dimension composite du climat organisationnel, soit les caractéristiques de la tâche, expliquent 5 % de la variance des PRS privilégiées. Le climat organisationnel global et ses dimensions composites relatives aux caractéristiques du rôle, de l’organisation, du supérieur et de l’équipe sont de puissants facteurs explicatifs des PRS actuelles (5 % à 11 % de la variance), de l’écart entre les PRS privilégiées et actuelles (4 % à 9 %) ainsi que de la satisfaction professionnelle (13 % à 30 %) des infirmières soignantes. De plus, il a été démontré, qu’au-delà de l’important impact du climat organisationnel global et des variables de contrôle, la fréquence des PRS contribue à augmenter la satisfaction professionnelle des infirmières (ß = 0,31 ; p < 0,001), alors que l’écart entre les PRS privilégiées et actuelles contribue à la diminuer (ß = - 0,30 ; p < 0,001) dans des proportions fort similaires (respectivement 7 % et 8 %). Le volet qualitatif a permis de mettre en relief quatre ordres de facteurs qui expliquent comment le climat organisationnel façonne les PRS et la satisfaction professionnelle des infirmières. Ces facteurs sont: 1) l’intensité de la charge de travail; 2) l’approche d’équipe et la perception du rôle infirmier ; 3) la perception du supérieur et de l’organisation; 4) certaines caractéristiques propres aux patients/familles et à l’infirmière. L’analyse de ces facteurs a révélé d’intéressantes interactions dynamiques entre quatre des cinq dimensions composites du climat, suggérant ainsi qu’il soit possible d’influencer une dimension en agissant sur une autre. L’intégration des inférences quantitatives et qualitatives rend compte de l’impact prépondérant des caractéristiques du rôle sur la réalisation des PRS et la satisfaction professionnelle des infirmières, tout en suggérant d’adopter une approche systémique qui mise sur de multiples facteurs dans la mise en oeuvre d’interventions visant l’amélioration des environnements de travail infirmier en milieu hospitalier.
Resumo:
La présente thèse a pour objectif d’étudier le rôle des facteurs cognitifs (traitement phonologique et visuoattentionnel et mémoire lexicale orthographique) dans l’acquisition des connaissances orthographiques implicites et explicites. Afin d’examiner les liens entre les différents facteurs cognitifs et les connaissances orthographiques, une étude longitudinale a été réalisée à l’aide d’un échantillon de 338 enfants suivis de la maternelle 5 ans à la fin de la deuxième année du primaire. À la fin de la maternelle, les enfants ont été évalués à l’aide d’une épreuve d’orthographe approchée et d’épreuves évaluant les facteurs cognitifs en jeu dans l’apprentissage du langage écrit (traitement phonologique, traitement visuoattentionnel et mémoire à court et à long terme). Les connaissances lexicales orthographiques explicites de ces mêmes enfants ont été évaluées en fin de première et de deuxième années. Le premier article de cette thèse rapporte les données d’une étude réalisée auprès des enfants scolarisés en maternelle 5 ans. Cette étude vise l’établissement d’un lien entre, d’une part, la capacité de traitement phonologique, visuoattentionnel et de mémoire lexicale orthographique et, d’autre part, les connaissances orthographiques implicites des enfants qui n’ont pas encore eu d’enseignement formel de l’écriture. Les résultats indiquent que, contrairement à ce qui a été longtemps avancé, la capacité de traitement phonologique n’est pas le seul facteur cognitif à intervenir, puisque la capacité de mémoire lexicale orthographique à long terme ainsi que la capacité visuoattentionnelle contribuent de façon importante et indépendante à l’acquisition des connaissances orthographiques implicites des enfants de la maternelle 5 ans. La mémoire lexicale orthographique est même le facteur qui apporte la plus forte contribution. La deuxième étude de cette thèse vise à déterminer, parmi les facteurs cognitifs évalués en maternelle, celui ou ceux qui permettent de prédire les connaissances orthographiques explicites ultérieures, c'est-à-dire celles de première et de deuxième années du primaire. Les résultats de cette deuxième étude indiquent que les préalables nécessaires à l’acquisition des connaissances orthographiques lexicales sont les capacités de traitement phonologique ainsi que les capacités de la mémoire à court et à long terme. La troisième étude de cette thèse a pour but de mettre en lumière le rôle prédictif que joue le niveau des connaissances orthographiques des enfants de maternelle quant au niveau ultérieur de leurs connaissances orthographiques en première et deuxième années, en lien avec les capacités cognitives qui sous-tendent l’apprentissage du langage écrit, en particulier le traitement phonologique, le traitement visuoattentionnel et la mémoire lexicale orthographique. Les résultats de cette dernière étude permettent de montrer que, parmi les facteurs évalués en maternelle, le niveau des connaissances orthographiques implicites apporte une contribution unique à l’ensemble du niveau des connaissances orthographiques ultérieures. L’influence des connaissances orthographiques précoces sur l’acquisition ultérieure n’est pas surprenante. En effet, la première étude avait montré que le niveau de ces connaissances est fonction non seulement de la capacité de mémoire orthographique lexicale mais également de la capacité de traitement phonologique et visuottentionnel. Les résultats issus de ces trois études présentent un intérêt non négligeable dans la compréhension de l’acquisition du langage écrit. En effet, ces recherches ont permis de montrer qu’avant même l’apprentissage formel de l’écrit, l’enfant témoigne de connaissances implicites non négligeables sur la langue écrite et que c’est à partir de ces connaissances que s’élaboreront ses connaissances explicites ultérieures. Ces connaissances sont tributaires de multiples facteurs parmi lesquels la capacité de mémoire lexicale orthographique, facteur cognitif dont la contribution n’avait pas été démontrée jusqu’à présent. Les résultats de cette recherche montrent qu’il est possible d’envisager des outils de dépistage précoce qui permettront d’identifier les enfants à risque de présenter des difficultés spécifiques d’apprentissage du langage écrit. Ce dépistage permettrait de mettre en place des interventions mieux ciblées et précoces, ce qui réduirait ainsi l’impact des difficultés sur les apprentissages scolaires.
Resumo:
La recherche sur le phénomène sonore, depuis les théorisations de Pierre Schaeffer entourant le concept de « l’objet sonore », a largement évolué nous permettant d’en saisir toute sa complexité. Poursuivant ce même dessein, nous proposons une approche compréhensive du phénomène sonore dans l’espace public urbain en nous penchant plus spécifiquement sur l’interprétation sonore des usagers empruntant les grandes rues commerciales de la ville et en l’occurrence, celles de Montréal. Au quotidien, le citadin déambule et chemine dans l’espace public en prenant conscience de son environnement à l’aide de ses sens. Outre l’aspect visuel, l’ensemble des autres sens sont, pour la plupart du temps, négligés par les designers de l’espace urbain. Il en résulte une conception du projet urbain relativement pauvre au niveau sonore. Dans ce mémoire, il sera question d’aborder le son sous l’angle de l’expérience subjective telle qu’elle est vécue par les usagers. L’objectif de nos travaux tend donc à approfondir la compréhension de l’expérience sonore de l’usager dans l’espace public urbain afin d’en intégrer les principes en amont du processus de conception. Les théories et méthodes issues du domaine de l’environnement sonore voient leur champ d’investigation élargi par l’anthropologie des sens. La richesse de cette approche permet de mieux saisir les multiples dimensions qui façonnent le vécu sonore des usagers. Le cadre de références puise également dans les pratiques artistiques. L’analyse de ces dernières fait émerger des dimensions utiles à la compréhension de l’expérience sonore. Cette expérimentation a été effectuée à l’aide de différentes méthodes de collecte de données permettant de recueillir un maximum de matière qualitative. Ainsi, des observations, des parcours d’écoute qualifiée, des parcours commentés et finalement des entretiens en profondeur ont été menés. Cette recherche a permis de mieux comprendre le dialogue existant entre le son, l’espace et l’usager en révélant les différentes dimensions de l’expérience sonore de la grande rue commerciale et notamment, celles entourant la culture des sens.
Resumo:
L’hypertension pulmonaire (HP) est une maladie dont l’étiologie est inconnue et qui entraîne ultimement une défaillance du ventricule droit (VD) et le décès. L’HP peut être induite chez le rat par la la monocrotaline (MCT), un alcaloïde pyrrolizidique extrait de la plante Crotalaria Spectabilis, causant des lésions à l’endothélium des artères pulmonaires, menant à un épaississement de ces dernières et à une augmentation de la résistance vasculaire. Ceci à pour conséquence de causer une hypertrophie du VD, de l’inflammation, une dysfonction endothéliale NO-dépendante des artères coronariennes et une augmentation des peptides natriurétiques circulants. Objectif: Nous avons testé l’hypothèse selon laquelle l’étiopathologie de l’HP impliquerait le récepteur à ocytocine (OTR) dû à son implication fonctionnelle avec les cytokines inflammatoires et la libération du peptide natriurétique atrial (ANP) et du NO. Méthodes: Des rats mâles Sprague-Dawley pesant 220-250g reçurent une seule injection sous-cutanée de MCT (60 mg/kg). 6 à 7 semaines (46±1 jours) suivant l’injection, les rats furent sacrifiés et l’expression génique et protéique fut déterminée par PCR en temps réel et par western blot, respectivement, dans le VD et le ventricule gauche (VG) Résultats: Les rats traités au MCT démontrèrent une augmentation significative du VD. Une hypertrophie du VD était évidente puisque le ratio du VD sur le VG ainsi que le poids du septum étaient près de 77% plus élevés chez les rats traités au MCT que chez les rats contrôles. Le traitement au MCT augmenta l’expression génique d’ANP (3.7-fois dans le VG et 8-fois dans le VD) ainisi que le NP du cerveau (2.7-fois dans le VG et 10-fois dans le VD). Les transcrits de trois récepteurs de NP augmentèrent significativement (0.3-2 fois) seulement dans le VD. L’expression protéique de la NO synthase (iNOS) fut également augmentée de façon sélective dans le VD. Par contre, les transcripts de NOS endothéliale et de NOS neuronale étaient plus élevés (0.5-2 fold) dans le VG. L’ARNm et l’expression protéique d’OTR furent diminués de 50% dans le VD, tandis qu’une augmentation de l’expression des cytokines IL-1β and IL-6 fut observée. L’ARNm de Nab1, un marqueur d’hypertrophie pathologique, fut augmentée de deux-fois dans le VD. Conclusion: L’augmentation d’expression génique de NP dans le VD des rats traités au MCT est associée à une augmentation des transcripts du récepteur NP, suggérant une action locale de NP dans le VD durant l’HP. L’expression d’OTR est atténuée dans le VD, possiblement par des cytokines inflammatoires puisque le promoteur du gène de l’OTR contient de multiples éléments de réponse aux interleukines. Diminuer l’expression d’OTR dans le VD durant l’hypertension pulmonaire pourrait influencer de manière positive la fonction cardiaque car l’OTR régule la contractilité et le rythme cardiaque. Mots clés: hypertension pulmonaire, hypertrophie du ventricule droit monocrotaline, récepteur à ocytocine, inflammation, peptides natriurétiques.
Resumo:
L'absentéisme parmi le personnel soignant prend de plus en plus d'ampleur dans les institutions sanitaires publiques au Cameroun. Il représente à l'heure actuelle l'une des principales causes de l'effondrement du système de soins de santé. Ce phénomène se doit d'être réduit à des proportions raisonnables; cependant, les informations nationales sur les niveaux d’absentéisme parmi ce personnel, les coûts associés, ainsi que sur les facteurs qui le déterminent restent encore très faibles. Cette recherche avait pour objectifs de mesurer le niveau d’absentéisme parmi les prestataires de soins de santé des hôpitaux publics du Cameroun ; de déterminer l’influence des caractéristiques personnelles et des facteurs occupationnels sur le comportement d’absence parmi ces professionnels ; et d’évaluer les répercussions économiques de l’absentéisme en termes de coûts associés à la perte de productivité pour les employeurs. Elle portait sur du personnel soignant, notamment les médecins, les infirmiers et les aides-soignants exerçant dans les formations sanitaires publiques (hôpitaux) du Cameroun au mois d’octobre 2008. L’absentéisme était mesuré par le nombre d’heures et d’épisodes (fréquence) d’absences et concernait les retards et les absences de trois jours consécutifs et moins. Les facteurs personnels et occupationnels étudiés étaient l’âge, le sexe, le statut civil, les responsabilités familiales (nombre d’enfants), le niveau d’éducation, l’unité de soins, le type d’emploi, le régime d’emploi, l’horaire de travail, le temps supplémentaire, l’ancienneté dans l’hôpital, la taille de l’hôpital et le revenu de l’employé. Les données ont été recueillies dans 15 formations sanitaires publiques réparties dans six régions du Cameroun, sur la période allant du 1er au 31 octobre 2008, à partir des documents officiels émanant du gouvernement et des hôpitaux. Les analyses statistiques comportaient des analyses descriptives, des analyses bivariées et des analyses multivariées. Le taux de participation moyen des employés a été de 50,7%. Sur les 516 personnes qui composaient l’échantillon, 93,4% avaient eu au moins une absence au travail au mois d’octobre 2008. Le taux d’absentéisme global était de 7,2%, et variait entre 2% et 37% dans les hôpitaux. Chaque participant avait en moyenne 12 épisodes d’absences pendant cette période et la durée moyenne d’absences par participant était d’environ 13 heures et 21 minutes. La durée de l’horaire de travail, le fait de travailler dans un hôpital régional, de travailler selon un horaire fixe, d’être un personnel PPTE et de ne pas effectuer du temps supplémentaire, sont associés significativement à une plus grande fréquence des absences. La durée de l’horaire de travail, le fait d’être médecin, de travailler dans un service d’accueil et des urgences, de travailler selon un horaire fixe et d’être une femme, ont un lien significativement positif avec la durée des absences. Cet absentéisme a absorbé environ 8% de la masse salariale d’octobre 2008. On estime à environ 4 088 568 dollars US courants (2008), les dépenses consacrées par le secteur public de la santé du Cameroun à cet absentéisme en 2008, ce qui représentait approximativement 2,1% des dépenses publiques de santé. La réduction de l’absentéisme de courte durée parmi les professionnels de la santé du secteur public au Cameroun passe par l’amélioration du style de gestion des hôpitaux et l’approfondissement des recherches sur le comportement d’absence parmi ces professionnels.
Resumo:
La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.
Resumo:
Les agences de notation de crédit ont permis la banalisation des véhicules de titrisation. Elles ont sous-estimé la probabilité que les émetteurs de certains instruments financiers complexes ne puissent pas honorer leurs dettes. Elles ont tardé à refléter la détérioration du marché de leurs notes. Les agences de notation ont donc été en partie responsables de la tempête que traversent les places financières mondiales et ont exposé les entreprises à un risque sérieux de défiance. Alors que les entreprises doivent à l’heure actuelle maîtriser de multiples risques, celles-ci ont été les premières victimes des professionnels de la notation. Pour apporter une réponse au risque de la notation, les régulateurs tentent de réagir. Par l’intermédiaire de leur autorité boursière, les Etats-Unis ont été les premiers à modifier le cadre règlementaire de l’activité de la notation. C’est ce cadre règlementaire, adopté au premier trimestre 2009, qui fait l’objet du présent papier.
Resumo:
L’objectif principal de ce mémoire consiste à déterminer s’il existe une association entre la détresse psychologique et les problèmes cardiovasculaires chez les travailleurs, suite à l’influence de certains facteurs professionnels. Les données proviennent de l’Enquête sur la santé dans les communautés canadiennes (cycle 3.1 de l’ESCC), menée par Statistique Canada en 2005. Notre échantillon est composé de 15 394 canadiens et canadiennes en emploi de 15 ans et plus, représentatif sur le plan de l’âge, du genre et de la distribution géographique du lieu de résidence. Les analyses de régressions logistiques montrent que quatre facteurs professionnels présentent une association significative avec la détresse psychologique : les demandes psychologiques, la menace de perdre son emploi, le soutien social au travail, la satisfaction au travail. Puis, trois facteurs s’avèrent être reliés au développement de problèmes cardiovasculaires, soit l’utilisation des compétences, la satisfaction au travail ainsi que le nombre d’heures travaillées. Les analyses de variances multiples (MANOVA) révèlent que la détresse psychologique est associée aux problèmes cardiovasculaires et que ces deux problèmes de santé peuvent se retrouver en situation de comorbidité. Selon les résultats, on observe que cinq facteurs sont significativement corrélés à la présence de détresse psychologique en même qu’un problème cardiovasculaire : les demandes psychologiques, la menace de perdre son emploi, le soutien social au travail, la satisfaction au travail ainsi que le nombre d’heures travaillées. Par ailleurs, l’utilisation des compétences, l’autonomie décisionnelle et les exigences physiques de travail ne sont pas significativement associés à la détresse psychologique et à la présence de problèmes cardiovasculaires.
Resumo:
Entre 1853 et 1870, de multiples quartiers de la ville sont éventrés pour permettre la mise en place de nouveaux boulevards par le baron Haussmann, préfet de Paris sous Napoléon III. Ces travaux majeurs ont frappé l’imaginaire social et constitué un objet de fascination pour la littérature. Le mémoire se situe sur le terrain de la sociocritique. La chercheuse cherche à comprendre comment des textes de Verne, Hugo et Zola lisent la nouvelle configuration urbaine parisienne. Dans Paris au XXe siècle (1863), Jules Verne projette la destruction dans le futur et, en retour, imagine les rémanences d’un passé étrangement constructif. Bien qu’il soit en exil, Victor Hugo est très au courant des changements urbains et sociaux en cours. Dans Paris (1867), son écriture travaille à rendre compatibles les idées de ruine et de progrès. Émile Zola, avec Paris (1898), exprime les contradictions accompagnant le changement urbain par le biais de métaphores médicales et organiques proches de « l’esprit de décadence » qui caractérise la fin du siècle. En conformité avec les visées de l’approche sociocritique, c’est à partir d’une lecture interne des oeuvres, mettant à profit les ressources de l’analyse de texte, de la poétique et de la narratologie, que la recherche se développe. L’étude mobilise également les ressources des travaux consacrés aux relations de la littérature et de la ville, ainsi que celles des ouvrages de synthèse produits dans les champs de l’histoire générale et de l’histoire de l’urbanisme.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Based on a close reading of the debate between Rawls and Sen on primary goods versus capabilities, I argue that liberal theory cannot adequately respond to Sen’s critique within a conventionally neutralist framework. In support of the capability approach, I explain why and how it defends a more robust conception of opportunity and freedom, along with public debate on substantive questions about well-being and the good life. My aims are: (i) to show that Sen’s capability approach is at odds with Rawls’s political liberal version of neutrality; (ii) to carve out a third space in the neutrality debate; and (iii) to begin to develop, from Sen’s approach, the idea of public value liberalism as a position that falls within that third space.
Resumo:
L’époque contemporaine est marquée par la mobilité des personnes, des biens et des idées. Dans ce contexte, les différences se côtoient et s’entrechoquent. Diverses stratégies sont mises de l’avant par les gouvernements, les groupes ou les individus pour réagir à ces nouveaux paradigmes. Nous montrons que la religion peut fournir un point d’ancrage et un cadre de signification partagé en reliant les gens dans un même espace-temps. L’étude de la communauté baha'ie de Montréal, un groupe religieux transnational qualifié de vieille « nouvelle religion », a permis de mettre en lumière l’articulation de l’idéologie cosmopolite, tant dans le message religieux que dans son appropriation par les membres. Cette idéologie est également une source d’inspiration dans la construction d’une identité baha'ie internationale puisqu’elle définit aussi l’appartenance à la communauté et qui se traduit par une appartenance au monde. L’identité religieuse est ici favorisée au détriment de l’identité ethnique tandis que l’accent est mis sur la diversité plutôt que l’homogénéité de la communauté. Les baha'is partagent des représentations collectives et un répertoire symbolique qui définissent leur projet de gouvernance mondiale. C’est dans ce contexte qu’ils allient les stratégies institutionnelles et personnelles pour reconnaître la place de tous en tant que citoyens du monde, et ce, dans la mise en place du « village global » baha'i.
Resumo:
La présente étude se concentre sur le travail de Nancy Fraser sur la justice sociale, lequel a suscité beaucoup d’intérêt dans la littérature au cours des dernières années. La reconnaissance et la redistribution sont les deux piliers originaux de son approche: les désavantages dont souffrent les gens dus au dénigrement culturel ou à la privation économique. Ces deux concepts servent à diagnostiquer et fournir le soutien moral aux multiples luttes que les victimes d’injustice entreprennent avec l’objectif d’établir une participation plus égalitaire à la société. Cependant, que peut-elle dire cette approche des groupes qui sont marginalisés et cherchent l’autogouvernance (ou la séparation même) plutôt que l’intégration dans la société? Le travail de Fraser manifeste une résistance envers les droits du groupe, et un silence quant à l’autodétermination. Mon intervention prend comme objectif d’inclure ces formes d’injustice dans son approche, la rendant plus sensible aux dynamiques des groupes et capable de répondre à leurs revendications trop souvent négligées sous prétexte de l’égalité. La question est, l’égalité de qui?
Resumo:
Les différents commentateurs de Lovecraft se sont au fil du XXe siècle jusqu’à nos jours entendus sur un point : l’originalité de son oeuvre. Impossible à cataloguer dans un genre littéraire précis, offrant de multiples couches d’interprétation, celle-ci fut analysée à la fois sous l’angle psychanalytique et sous l’angle philosophique et scientifique. Cependant, la dimension purement esthétique semble, peut-être par négligence, avoir été oubliée. Notre mémoire propose une investigation de l’esthétique dans l’oeuvre de Lovecraft. Notre hypothèse de recherche repose sur les analogies évidentes et pourtant peu approfondies par la critique entre l’esthétique de celle-ci et l’esthétique cosmogonique de l’Antiquité. Dans un premier temps, nous situerons l’œuvre dans son contexte littéraire, c’est-à-dire que nous nous pencherons sur les rapports évidents qu’elle entretient avec des auteurs tels que J.R.R. Tolkien et Arthur Conan Doyle et sur les différences moins évidentes qui la distinguent d’autres d’auteurs tels que H.G. Wells et William Hope Hodgson. Ensuite, nous mettrons en perspective les différences qui la séparent logiquement de la cosmogonie hébraïque et de la tradition théologique et philosophique qu’elle inaugure, entre autres, tel qu’elle se cristallise dans La Divine Comédie de Dante. Finalement, nous démontrerons à partir d’une comparaison serrée de motifs analogues, présents dans la longue nouvelle de Lovecraft, At the Mountains of Madness et dans le poème d’Hésiode, La Théogonie, le parallèle révélateur entre leurs esthétiques respectives; leurs esthétiques qui découlent de paradigmes du réel historiquement et essentiellement distincts, mais non pas opposés ou contradictoires.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.