18 resultados para Next-to-leading order

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche porte sur la mise en oeuvre de stratégies visant à stimuler le développement résidentiel au centre-ville de Montréal depuis la fin des années 1980 . En nous appuyant sur une double étude de cas portant sur le redéveloppement de deux friches périphériques à la vieille ville, le faubourg Québec et le faubourg des Récollets, nous montrons comment les pouvoirs publics locaux peuvent, par le biais de diverses mesures incitatives, faire converger les stratégies d’affaires des promoteurs immobiliers avec les objectifs urbanistiques de l’administration. D’une manière parfois improvisée, les pouvoirs publics montréalais ont ainsi mis en place un système d’opportunités et de contraintes dans le but d’inciter les promoteurs à investir dans les faubourgs. Notre recherche constate que bien que le système mis en place par les pouvoirs publics ait laissée indifférente une majorité de promoteurs, il a néanmoins permis à un petit nombre d’entre eux de se tailler une place sur le marché, ceux-ci pouvant maintenant jouer un rôle actif dans le renouvellement du centre-ville, et ce bien au-delà des limites des faubourgs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[Français] Une fraction importante des génomes eucaryotes est constituée de Gènes Répétés en Tandem (GRT). Un mécanisme fondamental dans l’évolution des GRT est la recombinaison inégale durant la méiose, entrainant la duplication locale (en tandem) de segments chromosomiques contenant un ou plusieurs gènes adjacents. Différents algorithmes ont été proposés pour inférer une histoire de duplication en tandem pour un cluster de GRT. Cependant, leur utilisation est limitée dans la pratique, car ils ne tiennent pas compte d’autres événements évolutifs pourtant fréquents, comme les inversions, les duplications inversées et les délétions. Cette thèse propose différentes approches algorithmiques permettant d’intégrer ces événements dans le modèle de duplication en tandem classique. Nos contributions sont les suivantes: • Intégrer les inversions dans un modèle de duplication en tandem simple (duplication d’un gène à la fois) et proposer un algorithme exact permettant de calculer le nombre minimal d’inversions s’étant produites dans l’évolution d’un cluster de GRT. • Généraliser ce modèle pour l’étude d’un ensemble de clusters orthologues dans plusieurs espèces. • Proposer un algorithme permettant d’inférer l’histoire évolutive d’un cluster de GRT en tenant compte des duplications en tandem, duplications inversées, inversions et délétions de segments chromosomiques contenant un ou plusieurs gènes adjacents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans l’optique que la télésurveillance est devenue un outil indispensable en matière de sécurité, notre projet de recherche porte sur la manière dont elle est utilisée à des fins de gestion de l’ordre dans une propriété privée de masse (propriété privée que le public général est invité à visiter). Il s’agit de comprendre le rôle du centre de contrôle de télésurveillance dans la gestion d’un centre commercial. De façon plus spécifique, nous voulons décrire le fonctionnement et les objectifs des technologies de télésurveillance et les méthodes de contrôle utilisées dans un espace privé de masse. Nous voulons décrire les pratiques des agents affectés au centre de contrôle de télésurveillance ainsi que leur perception des notions de sécurité et d’ordre, avec une attention particulière accordée à la surveillance des lieux. Le site que nous avons sélectionné est un édifice situé en plein cœur du centre-ville de Montréal, où nous retrouvons des galeries commerciales abritant plusieurs restaurants et boutiques. Afin d’atteindre nos objectifs de recherche, nous avons fait plus de 150 heures d’observation participante dans le centre de contrôle de télésurveillance. Nos observations étaient complétées par des entretiens spontanés, afin de bien comprendre la dynamique et les interactions entre les agents, les autres employés et les visiteurs. Ainsi, notre matériel empirique est surtout de nature qualitative, mais nous avons complété ces données avec une grille d’analyse quantitative permettant une analyse minutieuse de l’emploi du temps des agents de sécurité à l’aide d’un fichier informatisé. Nous sommes en mesure d’établir que la surveillance dans une propriété privée de masse vise, à biens des égards, la gestion de l’image. La sécurité proprement dite est reléguée au second plan, derrière tout ce qui est relatif au marketing et à l’encouragement à la consommation. De plus, nous avons constaté que les agents de sécurité dans de tels lieux servent surtout à répondre à des besoins organisationnels ponctuels, leur quotidien n’étant guidé par aucune mission globale. Quant au centre de contrôle de vidéosurveillance, nous pouvons affirmer que son rôle est de s’assurer que toutes les activités au centre se déroulent comme convenu par les gestionnaires de l’établissement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La découverte dans le cerveau du singe macaque de cellules visuo-motrices qui répondent de façon identique à la production et la perception d’actes moteurs soutient l’idée que ces cellules, connues sous le nom de neurones-miroirs, encoderaient la représentation d’actes moteurs. Ces neurones, et le système qu’ils forment, constitueraient un système de compréhension moteur; par delà la simple représentation motrice, il est également possible que ce système participe à des processus de haut niveau en lien avec la cognition sociale. Chez l’humain adulte, des études d’imagerie récentes montrent d’importants chevauchements entre les patrons d’activité liés à l’exécution d’actes moteurs et ceux associés à la perception d’actions. Cependant, malgré le nombre important d’études sur ce système de résonance motrice, étonnamment peu se sont penchées sur les aspects développementaux de ce mécanisme, de même que sa relation avec certaines habiletés sociales dans la population neurotypique. De plus, malgré l’utilisation répandue de certaines techniques neurophysiologiques pour quantifier l’activité de ce système, notamment l’électroencéphalographie et la stimulation magnétique transcrânienne, on ignore en grande partie la spécificité et la convergence de ces mesures dans l’étude des processus de résonance motrice. Les études rassemblées ici visent à combler ces lacunes, c'est-à-dire (1) définir l’existence et les propriétés fonctionnelles du système de résonance motrice chez l’enfant humain, (2) établir le lien entre ce système et certaines habiletés sociales spécifiques et (3) déterminer la validité des outils d’investigation couramment utilisés pour mesurer son activité. Dans l’article 1, l’électroencéphalographie quantitative est utilisée afin de mesurer l’activité des régions sensorimotrices chez un groupe d’enfants d’âge scolaire durant la perception d’actions de la main. On y démontre une modulation de l’activité du rythme mu aux sites centraux non seulement lors de l’exécution de tâches motrices, mais également lors de l’observation passive d’actions. Ces résultats soutiennent l’hypothèse de l’existence d’un système de résonance motrice sensible aux représentations visuelles d’actes moteurs dans le cerveau immature. L’article 2 constitue une étude de cas réalisée chez une jeune fille de 12 ans opérée pour épilepsie réfractaire aux médicaments. L’électroencéphalographie intracrânienne est utilisée afin d’évaluer le recrutement du cortex moteur lors de la perception de sons d’actions. On y montre une modulation de l’activité du cortex moteur, visible dans deux périodes distinctes, qui se reflètent par une diminution de la puissance spectrale des fréquences beta et alpha. Ces résultats soutiennent l’hypothèse de l’existence d’un système de résonance motrice sensible aux représentations auditives d’actions chez l’enfant. L’article 3 constitue une recension des écrits portant sur les données comportementales et neurophysiologiques qui suggèrent la présence d’un système de compréhension d’action fonctionnel dès la naissance. On y propose un modèle théorique où les comportements d’imitation néonataux sont vus comme la résultante de mécanismes d’appariement moteurs non inhibés. Afin de mesurer adéquatement la présence de traits empathiques et autistique dans le but de les mettre en relation avec l’activité du système de résonance motrice, l’article 4 consiste en une validation de versions françaises des échelles Empathy Quotient (Baron-Cohen & Wheelwright, 2004) et Autism Spectrum Quotient (Baron-Cohen et al., 2001) qui seront utilisées dans l’article 5. Les versions traduites de ces échelles ont été administrées à 100 individus sains et 23 personnes avec un trouble du spectre autistique. Les résultats répliquent fidèlement ceux obtenus avec les questionnaires en version anglaise, ce qui suggère la validité des versions françaises. Dans l’article 5, on utilise la stimulation magnétique transcrânienne afin d’investiguer le décours temporel de l’activité du cortex moteur durant la perception d’action et le lien de cette activité avec la présence de traits autistiques et empathiques chez des individus normaux. On y montre que le cortex moteur est rapidement activé suivant la perception d’un mouvement moteur, et que cette activité est corrélée avec les mesures sociocognitives utilisées. Ces résultats suggèrent l’existence d’un système d’appariement moteur rapide dans le cerveau humain dont l’activité est associée aux aptitudes sociales. L’article 6 porte sur la spécificité des outils d’investigation neurophysiologique utilisés dans les études précédentes : la stimulation magnétique transcrânienne et l’électroencéphalographie quantitative. En utilisant ces deux techniques simultanément lors d’observation, d’imagination et d’exécution d’actions, on montre qu’elles évaluent possiblement des processus distincts au sein du système de résonance motrice. En résumé, cette thèse vise à documenter l’existence d’un système de résonance motrice chez l’enfant, d’établir le lien entre son fonctionnement et certaines aptitudes sociales et d’évaluer la validité et la spécificité des outils utilisés pour mesurer l’activité au sein de ce système. Bien que des recherches subséquentes s’avèrent nécessaires afin de compléter le travail entamé ici, les études présentées constituent une avancée significative dans la compréhension du développement et du fonctionnement du système de résonance motrice, et pourraient éventuellement contribuer à l’élaboration d’outils diagnostiques et/ou de thérapeutiques chez des populations où des anomalies de ce système ont été répertoriées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce travail, nous adaptons la méthode des symétries conditionnelles afin de construire des solutions exprimées en termes des invariants de Riemann. Dans ce contexte, nous considérons des systèmes non elliptiques quasilinéaires homogènes (de type hydrodynamique) du premier ordre d'équations aux dérivées partielles multidimensionnelles. Nous décrivons en détail les conditions nécessaires et suffisantes pour garantir l'existence locale de ce type de solution. Nous étudions les relations entre la structure des éléments intégraux et la possibilité de construire certaines classes de solutions de rang k. Ces classes de solutions incluent les superpositions non linéaires d'ondes de Riemann ainsi que les solutions multisolitoniques. Nous généralisons cette méthode aux systèmes non homogènes quasilinéaires et non elliptiques du premier ordre. Ces méthodes sont appliquées aux équations de la dynamique des fluides en (3+1) dimensions modélisant le flot d'un fluide isentropique. De nouvelles classes de solutions de rang 2 et 3 sont construites et elles incluent des solutions double- et triple-solitoniques. De nouveaux phénomènes non linéaires et linéaires sont établis pour la superposition des ondes de Riemann. Finalement, nous discutons de certains aspects concernant la construction de solutions de rang 2 pour l'équation de Kadomtsev-Petviashvili sans dispersion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est reconnu que les résultats électoraux au Canada varient grandement selon la région. Afin de trouver des explications à ce phénomène, il convient d’étudier comment les grandes régions du Canada se distinguent les unes des autres sur le plan politique. La présente recherche amorce cette étude sous l’angle de l’idéologie. Elle tente de déterminer en quoi l’idéologie politique diffère d’une région à l’autre du pays. Elle s’appuie sur les données des études électorales canadiennes de 2008. On a recours à des questions évaluant les préférences des répondants par rapport à plusieurs enjeux politiques pour répondre à la question de recherche. On conduit en premier lieu une analyse factorielle, qui identifie six facteurs qui ont structuré l’opinion publique lors de l’élection de 2008. Ensuite, des tests T sont conduits pour vérifier si les moyennes de ces facteurs idéologiques sont statistiquement différentes d’une région à l’autre. Les résultats montrent que les différences régionales sont souvent significatives et suivent les hypothèses. Toutefois, les résultats touchant à la privatisation de la santé ainsi qu’au Manitoba et à la Saskatchewan vont à l’encontre des attentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Grâce aux nanotechnologies, l’être humain peut maîtriser la matière à l’échelle du nanomètre — soit au niveau des atomes et des molécules. Les matériaux obtenus suite à ces manipulations présentent des propriétés nouvelles qui les rendent très intéressants pour nombre d’applications techniques, et ce dans tous les domaines technoscientifiques. Ainsi, les nanotechnologies sont souvent considérées comme les prémisses d’une profonde révolution technologique et sociale. Toutefois, si les nanotechnologies intéressent investisseurs, gouvernement, entreprises et universités, elles soulèvent aussi des questions éthiques, notamment au sujet de leur toxicité, de leurs retombées et de la modification de l’être humain. À ces questions s’ajoutent plusieurs interrogations sur la gouvernance des nanotechnologies : comment, en effet, encadrer en amont le développement de celles-ci pour éviter d’éventuelles conséquences néfastes en aval? Parmi ces interrogations, le rôle des médias dans les relations entre les développeurs de nanotechnologies et le public est souvent mentionné. Certains voient dans les médias un acteur auquel les chercheurs pourraient recourir pour établir un dialogue avec le public afin d’assurer un développement harmonieux des nanotechnologies. Si cette recommandation semble très pertinente, il n’existe, à notre connaissance, aucune étude empirique pour en vérifier la faisabilité auprès des acteurs concernés (chercheurs, médias, etc.). Dans le cadre de cette thèse, nous avons donc voulu examiner et analyser les perceptions des chercheurs et des journalistes québécois envers des initiatives médiatiques pour baliser le développement des nanotechnologies. Pour ce faire, nous avons procédé à une étude qualitative auprès de vingt (20) chercheurs en nanobiotechnologies/nanomédecine et dix (10) journalistes spécialisés en vulgarisation scientifique. L’analyse des entretiens avec les répondants a révélé que si les acteurs rencontrés sont favorables envers de telles initiatives, il existe plusieurs contraintes pouvant gêner une telle entreprise. Suite à l’examen de ces contraintes, nous avons suggéré des initiatives concrètes que les chercheurs québécois pourraient mettre en place pour mieux baliser le développement des nanotechnologies à l’aide d’un dialogue avec le public. Ces suggestions consistent notamment à créer des médias privés pour les chercheurs, à recourir aux médias indépendants et à investir le web. De telles initiatives, cependant, ne peuvent s’obtenir qu’au prix d’un remaniement des priorités des chercheurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce mémoire, je cherche à déterminer pourquoi les animaux non humains ne sont pas considérés comme étant autonomes dans les théories libérales contemporaines. Pour ce faire, j’analyse deux conceptions traditionnelles de l’autonomie, soit l’autonomie en tant qu’agentivité morale et l’autonomie hiérarchique (en tant que capacité à agir selon ses désirs de second ordre), et je soutiens que ces deux conceptions ne réussissent pas à bien justifier le respect des choix personnels même chez les agents humains. J’avance que ces deux conceptions de l’autonomie mènent à des conclusions perfectionnistes et paternalistes à certains égards, ce qui est pourtant contraire à leur fonction. J’analyse ensuite quelques versions alternatives de l’autonomie qui ne reposent pas sur la possession de facultés morales ou rationnelles, avant de proposer une nouvelle conception de l’autonomie qui pourrait répondre aux problèmes soulevés et potentiellement reconnaître l’autonomie des animaux non humains.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La perception visuelle ne se résume pas à la simple perception des variations de la quantité de lumière qui atteint la rétine. L’image naturelle est en effet composée de variation de contraste et de texture que l’on qualifie d’information de deuxième ordre (en opposition à l’information de premier ordre : luminance). Il a été démontré chez plusieurs espèces qu’un mouvement de deuxième ordre (variation spatiotemporelle du contraste ou de la texture) est aisément détecté. Les modèles de détection du mouvement tel le modèle d’énergie d’Adelson et Bergen ne permettent pas d’expliquer ces résultats, car le mouvement de deuxième ordre n’implique aucune variation de la luminance. Il existe trois modèles expliquant la détection du mouvement de deuxième ordre : la présence d’une circuiterie de type filter-rectify-filter, un mécanisme de feature-tracking ou simplement l’existence de non-linéarités précoces dans le traitement visuel. Par ailleurs, il a été proposé que l’information visuelle de deuxième ordre soit traitée par une circuiterie neuronale distincte de celle qui traite du premier ordre. Bon nombre d’études réfutent cependant cette théorie et s’entendent sur le fait qu’il n’y aurait qu’une séparation partielle à bas niveau. Les études électrophysiologiques sur la perception du mouvement de deuxième ordre ont principalement été effectuées chez le singe et le chat. Chez le chat, toutefois, seules les aires visuelles primaires (17 et 18) ont été extensivement étudiées. L’implication dans le traitement du deuxième ordre de l’aire dédiée à la perception du mouvement, le Sulcus syprasylvien postéro-médian latéral (PMLS), n’est pas encore connue. Pour ce faire, nous avons étudié les profils de réponse des neurones du PMLS évoqués par des stimuli dont la composante dynamique était de deuxième ordre. Les profils de réponses au mouvement de deuxième ordre sont très similaires au premier ordre, bien que moins sensibles. Nos données suggèrent que la perception du mouvement par le PMLS serait de type form-cue invariant. En somme, les résultats démontrent que le PMLS permet un traitement plus complexe du mouvement du deuxième ordre et sont en accord avec son rôle privilégié dans la perception du mouvement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'écotourisme est souvent perçu comme une panacée capable de concilier le développement économique, la protection de l'environnement et le bien-être des communautés autour des aires protégées des pays en développement. La réalité sur le terrain est cependant tout autre, car son caractère complexe, politique et transcalaire est trop souvent négligé lors de la mise en œuvre des interventions. Le but de ce projet de recherche est de jeter un nouvel éclairage sur le développement de l'écotourisme dans les aires protégées des pays du Sud à travers une analyse critique des pratiques et des discours qui lui sont associés. Adoptant un cadre conceptuel dérivé de l'écologie politique, nous avons cherché à comprendre comment l'écotourisme affecte l'accès aux ressources naturelles pour différents acteurs sociaux. L'approche méthodologique s'appuie sur une étude de cas essentiellement qualitative qui s'attarde à un projet spécifique amorcé à Chi Phat, dans une forêt protégée des Cardamomes, au sud-ouest du Cambodge. Elle fait appel à l'analyse documentaire et discursive, à l'observation participante ainsi qu'à plus de 80 entretiens semi-directifs auprès d'acteurs clés. Nos résultats montrent d'abord qu'en matière d'écotourisme au Cambodge, il y a absence de lignes directrices claires et on observe très peu de collaboration, et ce, à tous les niveaux. Cela n'est pas étranger au fait que le gouvernement actuel accorde en général la priorité au développement devant la conservation. Ensuite, le projet d'écotourisme permet à Wildlife Alliance de justifier le maintien de la forêt protégée. Cette ONG se démarque par ailleurs des autres organisations au pays par son approche plus musclée. Le pouvoir dont elle jouit et les résultats qu'elle obtient sur le terrain tiennent en sa capacité à mobiliser, en temps opportun, l'ensemble des moyens disponibles pour contrôler l'accès. Globalement, nous pouvons affirmer que les principaux acteurs qui voient leur accès aux ressources naturelles touché négativement sont les paysans. Finalement, nous proposons deux ajouts au cadre conceptuel, soit la considération de l'aspect géographique de l'exclusion et l'introduction de modalités d'exclusion, qui permettent à notre avis une analyse plus juste de la situation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au Québec, le policier a l’autorité de faire respecter plusieurs lois et d’assurer le maintien de l’ordre. Puisque le policier peut être confronté à une multiplicité de problématiques, il est, dans certaines circonstances, contraint à employer une force pour se protéger lui-même ou pour protéger toute autre personne contre la mort ou contre des lésions corporelles graves. Cependant, bien que l’usage de la force par la police soit l’un des éléments les plus visibles et les plus controversés de l’intervention policière, les connaissances sur ce sujet spécifique demeurent limitées. Afin de pallier à certaines lacunes de la recherche et de la théorie, l’objectif général de ce mémoire vise à identifier les facteurs individuels, situationnels et contextuels liés au niveau de force utilisé par la police lors d’une intervention dans les postes de quartier et dans les secteurs de recensement. Les données dans le cadre de cette étude proviennent des rapports d’incidents déclarés d’usage de la force d’un service de police canadien pour une période couvrant les années 2007 à 2011, les données issues du recensement canadien de 2006 et les données criminelles issues du Programme de déclaration uniforme de la criminalité (DUC). La stratégie analytique privilégiée est la modélisation hiérarchique qui permettra de tester les liens entre les différents niveaux d’analyse. Au terme des analyses multiniveaux, les résultats indiquent que plusieurs facteurs ont un impact sur le niveau de force utilisé par le policier. Au niveau des déterminants individuels du sujet, c’est le fait d’être un homme, de résister physiquement à l’intervention et de posséder une arme qui est associé à des niveaux plus élevés de force. Au niveau des facteurs contextuels, on découvre que la proportion de minorité visible et le désavantage social ont un impact appréciable sur le niveau de force utilisé par le policier. Ces résultats nous amènent donc à conclure que les policiers tiennent surtout compte de la situation immédiate (facteurs individuels et situationnels) pour évaluer le degré de dangerosité ou de menace, mais qu’ils sont également influencés par l’endroit où ils se trouvent. D’autres études sont toutefois nécessaires pour vérifier la constance de nos résultats.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : Pour les programmes sanitaires faits dans les pays à faibles ressources, la non-pérennisation des résultats est un phénomène important (Pluye, Potvin, & Denis, Making public health programs last: conceptualizing sustainability, 2004). Par contre, peu d’études ont été faites pour présenter des solutions à ce problème. Pour trouver des pistes de réponses, nous avons fait une étude de cas du programme national multisectoriel de lutte contre le VIH/SIDA (PNMLS) en République Démocratique du Congo. En 2004, le programme a été implanté avec l’aide de la Banque Mondiale à travers son programme MAP (Multi Aids Program). Le MAP s’est retiré en 2010. Objectifs : Le but de notre recherche était de déterminer, trois ans après le départ du MAP, quel a été le niveau de pérennisation des objectifs atteints. Notre autre objectif était de savoir quels ont été les facteurs qui ont influencé la pérennisation des objectifs atteints. Méthodes : Nous avons fait une revue de littérature sur la pérennisation et ainsi développé un cadre théorique mettant en lien les facteurs qui pourraient influencer la pérennisation des résultats. Nous avons observé le programme PNLMS dans son écosystème pour repérer quels sont les facteurs qui ont influé la pérennisation des résultats. Nous avons passé des entrevues aux acteurs clefs et avons fait une analyse documentaire, pour ainsi trouver des réponses à nos questions de recherche. Résultat : notre recherche supporte le concept qu’une approche multisectorielle aurait un impact positif sur la pérennisation des résultats. Par contre, il est important d’adapter cette approche multisectorielle à l’environnement et l’écosystème dans lequel évolue le programme. Cette adaptation doit se faire dès l’implantation du programme.