654 resultados para ressources électroniques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte d’urbanisation fulgurante de l’Asie du sud-est, les zones périurbaines agricoles vietnamiennes subissent des pressions environnementales croissantes et sont loin d’être équipées en infrastructures. L’assainissement présente un important manque d’investissement. La thèse s’est intéressée aux stratégies et aux mécanismes de financement qui aideront à réduire l’écart entre l’offre et la demande d’assainissement. Deux hypothèses principales ont été posées. D’abord, des fonds supplémentaires doivent provenir des ressources nationales, locales et celles des utilisateurs. La seconde hypothèse pose qu’il faudra investir avantage dans des activités qui augmenteront la durabilité des services d’assainissement, comme l’éducation et la promotion, qui en plus favorisent les contributions locales. La thèse a tenté de répondre à la question suivante : Dans le contexte périurbain d’Hanoi, comment mettre à contribution les ressources locales pour améliorer l’accès et la durabilité de l’assainissement? L’étude de cas est un projet communautaire pilote de gestion des eaux usées en banlieue d’Hanoi. Les facteurs de demande pour de l’assainissement et leurs effets sur la durabilité du projet ont été analysés auprès des ménages, des acteurs du village et des acteurs nationaux liés à l’assainissement. La thèse a d’abord permis d’actualiser les connaissances sur deux aspects importants : le cadre institutionnel qui encadre le financement de l’assainissement et les coûts et bénéfices de l’assainissement alternatif au Vietnam. Ces deux sujets présentaient une lacune sérieuse au niveau de la documentation. Puis, malgré de faibles capacités au niveau local, la demande réelle pour de l’assainissement était beaucoup plus importante que celle relevée dans la littérature. La recherche a permis de conclure que les institutions gouvernementales pourraient compter sur une plus grande contribution du milieu local si la planification ciblait ces facteurs : l’éducation et promotion, une grande part de décision et de gestion au niveau local et des technologies plus simples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail de recherche sur le thème de l’évaluation des archives à l’ère du numérique réalisé à l’hiver 2009 dans le cadre du cours BLT6112 L'évaluation des archives sous la direction du professeur Yvon Lemay.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré les avancées médicales, la prédiction précoce du devenir développemental des enfants nés prématurément demeure un défi. Ces enfants sont à risque de séquelles plus ou moins sévères telles l'infirmité motrice d'origine cérébrale, les déficiences intellectuelles et sensorielles ainsi que les difficultés d'apprentissage. Afin de diminuer l’impact fonctionnel de ces séquelles, l’identification de marqueurs précoces devient un enjeu important. Dans le contexte actuel de ressources financières et humaines limitées, seuls les enfants nés avant 29 semaines de gestation ou avec un poids de naissance (PN) <1250g sont systématiquement suivis, laissant pour compte 95% des enfants prématurés. L’identification de marqueurs précoces permettrait de cibler les enfants nés après 28 semaines de gestation porteurs de séquelles. Le principal objectif des présents travaux visait à évaluer l’utilité de l’Évaluation neurologique d’Amiel-Tison (ENAT) dans l’identification et le suivi des enfants nés entre 29 et 37 semaines de gestation et qui présenteront des problèmes neurodéveloppementaux à l’âge corrigé (AC) de 24 mois. Plus précisément, la fidélité inter-examinateurs, la stabilité ainsi que la validité prédictive de l’ENAT ont été évaluées. La cohorte était composée initialement de 173 enfants nés entre 290/7 et 370/7 semaines de gestation, avec un PN<2500g et ayant passé au moins 24 heures à l’unité de soins néonatals du CHU Sainte-Justine. Les enfants étaient évalués avec l’ENAT à terme et aux AC de 4, 8, 12 et 24 mois. À l’AC de 24 mois, leur développement était évalué à l’aide du Bayley Scales of Infant Development–II. Les principaux résultats révèlent une excellente fidélité inter-examinateurs ainsi qu’une bonne stabilité au cours des deux premières années de vie du statut et des signes neurologiques. Des différences significatives à l’AC de deux ans ont été relevées aux performances développementales en fonction du statut neurologique à terme, qui constitue l’un des meilleurs facteurs prédictifs de ces performances. Les résultats encouragent l’intégration du statut neurologique tel que mesuré par l’ENAT comme marqueur précoce dans le cours d’une surveillance neurodéveloppementale des enfants les plus à risque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente l’étude de cas de la ville de St George, ancienne capitale du protectorat britannique des Bermudes. Sa situation géographique particulière et la présence d’un ensemble architectural colonial britannique et d’ouvrages militaires lui ont récemment valu le titre de Site du patrimoine mondial de l’UNESCO, ce qui constitue une reconnaissance de la valeur exceptionnelle universelle de cet ensemble urbain. Cette inscription survient au moment où les autorités locales souhaitaient diversifier l’économie de l’archipel en misant davantage sur le tourisme culturel et patrimonial. L’hypothèse centrale de ce mémoire est que la ville St George se révèle, au sens où l’entendent G.J. Ashworth et J.E. Tunbridge dans leur ouvrage The tourist-historic city, un « joyau du patrimoine », ce dernier étant défini comme une petite collectivité territoriale recelant des ressources historiques exceptionnelles qui en définissent de manière notable la morphologie urbaine et l’identité paysagère et orientent les politiques municipales. La recherche, suite à la présentation d’un cadre théorique sur le patrimoine mondial et le tourisme patrimonial, a par ailleurs permis de montrer que le concept de « cité historico-touristique » développé par les mêmes auteurs s’applique aux Bermudes à la condition qu’un transfert d’échelle soit opéré. En effet, nous ne sommes pas en présence d’un espace touristique constitué de deux secteurs d’une même ville qui contribuent, chacun à sa façon, à la définition de l’attractivité touristique, mais plutôt de deux petites villes voisines – St-George et Hamilton, la capitale – qui constituent le substrat d’une cité historico-touristique éclatée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ouvrant la réflexion sur les enjeux de la perte massive de la biodiversité, l'article s'appuie sur la question élémentaire de l'importance de la diversité biologique pour l'homme, à la fois sur le plan économique, biologique et éthique. La maîtrise de la nature par l'homme se révèle être une illusion. La réalité étant celle de l'interaction, il est permis de dire que les sociétés humaines agissent sur leurs propres conditions en modifiant les équilibres biologiques pour satisfaire leurs besoins, sans pour autant intégrer cette interaction fondamentale dans l'équation d'un rapport viable entre l'homme et la nature. L'approche récente par le biais des analyses des services écologiques constitue à cet égard un progrès sensible. Il aboutit néanmoins au constat de l'impossibilité pour l'humanité de se substituer aux mécanismes naturels permettant de tirer les services de la nature nécessaires à sa survie. Plutôt que de prétendre contrôler et maîtriser la nature à tout prix, l’homme devrait apprendre à se reconnaître comme une partie consciente de la nature et à vivre avec la vie qui l’entoure. Cet apprentissage soulève des défis scientifiques, humains et de gouvernance. L'article prône la nécessité d'une science de la biodiversité intégrée et non plus éclatée, condition essentielle pour l'élaboration de politiques économiques et sociales qui intègrent la viabilité de l'utilisation des ressources naturelles et des services qu'elles procurent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Devant le constat du déclin toujours plus rapide de la diversité biologique et les limites des ressources disponibles pour l’enrayer, il est nécessaire de déterminer quels moyens devraient être engagés dans sa protection. Pour ce faire, une méthode efficace serait d’évaluer les bénéfices tirés de la biodiversité afin d’estimer rationnellement les coûts légitimes de sa protection. L’évaluation économique, qui se présente d’emblée sur un mode quantitatif, serait alors un outil précieux. Dans ce texte, nous présentons différentes méthodes d’évaluation économique de la biodiversité ainsi que certaines de leurs limites méthodologiques. Par la suite, nous montrons qu’en dépit de ses avantages pratiques, l’évaluation économique échoue à représenter l’ensemble des valeurs en jeu dans la protection de la biodiversité. Nous décrivons alors trois types de valeurs incommensurables avec des bénéfices économiques : la valeur de legs, qui renvoie aux obligations de transmission du patrimoine naturel dont nous avons hérité ; la valeur d’existence, qui renvoie à la considération morale d’intérêts autres que ceux des êtres humains ; la valeur de transformation, qui renvoie à la capacité d’examiner et de critiquer nos préférences et inclinaisons afin d’inclure celles-ci dans une vision du monde rationnelle et cohérente. Pour conclure, nous plaidons en faveur de l’élaboration de méthodes de concertation et d’évaluation participatives et pluralistes permettant de rendre compte de la diversité et de l’hétérogénéité des valeurs de la biodiversité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, les statistiques indiquent une croissance exponentielle de l’incidence de certaines infections transmissibles sexuellement chez les jeunes adultes. Certaines enquêtes témoignent en outre des comportements peu responsables en matière de santé sexuelle chez cette population, bien que l’offre d’information sur les conséquences de tels comportements soit importante et diversifiée. Par ailleurs, le comportement informationnel de cette population en matière de santé sexuelle demeure peu documenté. La présente étude porte sur le comportement informationnel de jeunes adultes québécois en matière de santé sexuelle. Plus spécifiquement, elle répond aux quatre questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles les jeunes adultes sont confrontés en santé sexuelle?, (2) Quels sont les besoins informationnels exprimés par les jeunes adultes lors de ces situations problématiques?, (3) Quels sont les processus et les sources d’information qui soutiennent la résolution de ces besoins informationnels? et (4) Quelle est l’utilisation de l’information trouvée? Cette recherche descriptive a utilisé une approche qualitative. Le milieu retenu est l’Université de Montréal pour deux raisons : il s’agit d’un milieu cognitivement riche qui fournit un accès sur place à des ressources en santé sexuelle. Les huit jeunes adultes âgés de 18 à 25 ans qui ont pris part à cette étude ont participé à une entrevue en profondeur utilisant la technique de l’incident critique. Chacun d’entre eux a décrit une situation problématique par rapport à sa santé sexuelle et les données recueillies ont été l’objet d’une analyse de contenu basée sur la théorisation ancrée. Les résultats indiquent que les jeunes adultes québécois vivent des situations problématiques relatives à l’aspect physique de leur santé sexuelle qui peuvent être déclenchées par trois types d’éléments : un événement à risques, un symptôme physique subjectif et de l’information acquise passivement. Ces situations problématiques génèrent trois catégories de besoins informationnels : l’état de santé actuel, les conséquences possibles et les remèdes. Pour répondre à ces besoins, les participants se sont tournés en majorité vers des sources professionnelles, personnelles et verbales. La présence de facteurs contextuels, cognitifs et affectifs a particularisé leur processus de recherche d’information en modifiant les combinaisons des quatre activités effectuées, soit débuter, enchaîner, butiner et différencier. L’automotivation et la compréhension du problème représentent les deux principales utilisations de l’information. D’un point de vue théorique, les résultats indiquent que le modèle général de comportement informationnel de Choo (2006), le modèle d’environnement d’utilisation de l’information de Taylor (1986, 1991) et le modèle d’activités de recherche d’information d’Ellis (1989a, 1989b, 2005) peuvent être utilisés dans le contexte personnel de la santé sexuelle. D’un point de vue pratique, cette étude ajoute aux connaissances sur les critères de sélection des sources d’information en matière de santé sexuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ayant réalisé neuf longs-métrages entre 1988 et 2007, aussi que plusieurs campagnes publicitaires, vidéo-clips, courts-métrages et projets collectifs, Wong Kar-wai est un des réalisateurs contemporains les plus importants actuellement. Issu de l'industrie cinématographique fortement commerciale de Hong Kong, Wong est parvenu à attirer l'attention du circuit international des festivals de cinéma avec son style visuel unique et son récit fragmenté. Considéré par plusieurs critiques comme le poète de la recherche d’identité de Hong Kong après 1997, Wong Kar-wai défie toutes les tentatives de catégorisation. L’étude qui se poursuivit ici a donc pour objet essentiel de fournir une analyse attentive et complète de son oeuvre, tout en se concentrant sur les traits stylistiques qui donnent à ses films une unité. Ces caractéristiques correspondent à une certaine façon de raconter des histoires, de composer des personnages et des récits, de manipuler le temps et d'utiliser des ressources techniques de sorte que ses films offrent une identité cohérente. L'objectif est d'analyser les différents composants de ses images pour découvrir comment ses films communiquent les uns avec les autres afin de créer une identité unique. Pour atteindre cet objectif, je pose comme hypothèse de travail que le cinéma de Wong est marqué par une structure dualiste qui permet à ses films de présenter des qualités contradictoires simultanément. La plupart de mes arguments se concentrent sur le travail du philosophe français Gilles Deleuze, qui a proposé une théorie du cinéma divisé entre l’image-mouvement et l’image-temps. Je considère que sa théorie fournit un cadre valide sur lequel les films de Wong peuvent être projetés. Tandis que ma recherche se concentre sur l’interprétation textuelle des films, je profiterais également d’une analyse comparative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent texte porte sur l’état de la démocratie au Sénégal depuis l’alternance politique survenue en 2000. Adoptant une définition minimale de la démocratie – respect des libertés civiles et politiques, et tenue d’élections libres et justes – à laquelle il ajoute le principe de séparation des pouvoirs, son principal objectif est de répondre à la question suivante : pourquoi le fonctionnement de la démocratie est-il entravé au Sénégal? L’hypothèse avancée pour répondre à cette interrogation est la présence du néo-patrimonialisme. Celui-ci, par l’intermédiaire de la personnalisation du pouvoir et le clientélisme, sape le respect des règles démocratiques dans ce pays d’Afrique de l’Ouest. Pour analyser l’impact du néo-patrimonialisme sur la démocratie au Sénégal, ce mémoire privilégie le néo-institutionnalisme sociologique comme cadre théorique. Cette approche définit les institutions de façon large : celles-ci peuvent englober non seulement des normes formelles mais également des règles informelles. En vertu de cette approche, le néo-patrimonialisme et la démocratie représentent des institutions puisque le premier englobe un ensemble de règles informelles et le second un ensemble de normes et procédures formelles. Ces deux institutions structurent et façonnent le comportement des individus. Dans cette confrontation institutionnelle, les règles néo-patrimoniales influencent davantage l’action des élites politiques sénégalaises – notamment le chef de l’État – que les normes démocratiques. La vérification de l’hypothèse s’appuie sur des études sur la démocratie et le néo-patrimonialisme aussi bien au Sénégal qu’en Afrique. Elle se base également sur l’actualité et les faits politiques saillants depuis l’alternance. L’analyse est essentiellement qualitative et se divise en deux chapitres empiriques. Le premier de ceux-ci (chapitre II dans le texte) concerne la séparation des pouvoirs. Le but de ce chapitre est d’observer la manière dont l’actuel président de la République, Abdoulaye Wade, contrôle le parlement et la justice. Le second chapitre empirique (chapitre III dans le texte) se divise en deux sections. La première s’intéresse aux libertés civiles et politiques qui subissent des restrictions dues au penchant autoritaire de Wade. La seconde section porte sur les élections dont le déroulement est entaché par de nombreuses irrégularités : violence électorale, manque de ressources de l’autorité électorale, instabilité du calendrier électoral, partialité de la justice. L’étude confirme l’hypothèse, ce qui est très problématique pour la plupart des États africains. En effet, le néo-patrimonialisme est une caractéristique fondamentale de la gouvernance en Afrique. Ainsi, beaucoup de régimes du continent noir qui enclenchent ou enclencheront un processus de démocratisation comme le Sénégal, risquent de connaître les mêmes difficultés liées à la persistance des pratiques néo-patrimoniales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’éthique du care est confrontée à un problème qui a des allures de paradoxe: bien que sa politisation paraisse nécessaire, l’éthique du care ne semble pas pouvoir trouver en elle-même les ressources suffisantes à la formulation d’une théorie politique compréhensive. Il ne semble pas exister de théorie politique du care à part entière. Cet article examine la fécondité d’un rapprochement entre éthique du care et théorie néorépublicaine de la non-domination. Le résultat, non négligeable, serait de garantir des formes importantes de protections aux activités de care, mais il cela n’empêcherait pas nécessairement les représentations négatives de ces activités, dont on peut supposer qu’elle est l’un des facteurs de la marginalisation et de la répartition inégale qui les affecte. Pour bloquer ces représentations dégradantes, il faudrait que le care soit discuté et défini dans l’espace public non seulement comme un lieu possible de la domination, mais comme un aspect fondamental et positif de la vie individuelle et collective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1853 et 1870, de multiples quartiers de la ville sont éventrés pour permettre la mise en place de nouveaux boulevards par le baron Haussmann, préfet de Paris sous Napoléon III. Ces travaux majeurs ont frappé l’imaginaire social et constitué un objet de fascination pour la littérature. Le mémoire se situe sur le terrain de la sociocritique. La chercheuse cherche à comprendre comment des textes de Verne, Hugo et Zola lisent la nouvelle configuration urbaine parisienne. Dans Paris au XXe siècle (1863), Jules Verne projette la destruction dans le futur et, en retour, imagine les rémanences d’un passé étrangement constructif. Bien qu’il soit en exil, Victor Hugo est très au courant des changements urbains et sociaux en cours. Dans Paris (1867), son écriture travaille à rendre compatibles les idées de ruine et de progrès. Émile Zola, avec Paris (1898), exprime les contradictions accompagnant le changement urbain par le biais de métaphores médicales et organiques proches de « l’esprit de décadence » qui caractérise la fin du siècle. En conformité avec les visées de l’approche sociocritique, c’est à partir d’une lecture interne des oeuvres, mettant à profit les ressources de l’analyse de texte, de la poétique et de la narratologie, que la recherche se développe. L’étude mobilise également les ressources des travaux consacrés aux relations de la littérature et de la ville, ainsi que celles des ouvrages de synthèse produits dans les champs de l’histoire générale et de l’histoire de l’urbanisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.