796 resultados para Indicateur climatique urbain


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les temps changent, et de nouvelles temporalités sont venues modifier l’organisation du temps des individus. Les nouvelles technologies de l’information combinées à l’usage grandissant du véhicule en mode solo ont contribué à l’étalement urbain et à l’accroissement des distances qu’ont à franchir les migrants pendulaires. Les déplacements quotidiens de milliers de personnes sur un territoire urbain à des fins de travail, d’étude et de loisir ne se font pas sans heurts. Il va sans dire qu’un usage accru des moyens de transport collectif réduirait considérablement les méfaits occasionnés par les migrations pendulaires. Encore faut-il que l’offre de transport en commun réponde à la demande des migrants pendulaires. Puisqu’il y a différents types de migrants pendulaires, l’offre de transport doit s’adapter à tous si l’on veut rejoindre une masse importante d’utilisateurs. Les nouvelles temporalités ont redéfini l’usage du temps pour une majorité d’individus. Cette recherche vise donc à vérifier si l’offre de transport en commun, faite par la Société de Transport de Montréal et la Ville de Montréal, répond adéquatement aux besoins des navetteurs d’aujourd’hui.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sols forestiers constituent un réservoir considérable d’éléments nutritifs disponibles pour soutenir la productivité forestière. Ces sols contiennent aussi une quantité, encore inconnue à ce jour, d’éléments traces biodisponibles provenant de sources anthropiques ou naturelles. Or, plusieurs de ces éléments recèlent un potentiel toxique pour les organismes vivants. Ainsi, la quantification de la concentration et du contenu total en éléments traces des sols forestiers s’avère nécessaire afin d’évaluer les impacts des perturbations sur la qualité des sols. Les objectifs de ce projet de recherche sont: 1) de mesurer le contenu total en éléments traces en phase solide (Ag, As, Ba, Cd, Ce, Co, Cr, Cu, Mn, Ni, Pb, Rb, Se, Sr, Tl, V, Y, Zn) des divers horizons de sols d’écosystèmes forestiers du Québec méridional; 2) d’établir des liens significatifs entre la fraction soluble dans l’eau des éléments traces et les propriétés des horizons de sols et; 3) d’évaluer le rôle de la proximité d’un centre urbain sur les contenus en éléments traces. Pour répondre à ces objectifs, quatre profils de sols situés dans la région de St-Hippolyte et deux situés dans la région de Montréal furent échantillonnés jusqu'à l'atteinte du matériel parental. Les résultats de ce projet de recherche ont révélé que le contenu total en éléments traces présents dans les profils de sols se retrouve en grande partie dans les fragments grossiers du sol. Il a été démontré que la teneur en carbone organique, les complexes organométalliques et les oxydes de fer et d’aluminium dictent la distribution en profil de la majorité des éléments traces étudiés. Finalement, il fut prouvé que la région de Montréal présente des niveaux de contamination en éléments traces (Ag, As, Ba, Cu, Mn, Pb, Rb, Se, Sr, Tl et Zn) supérieurs à ceux rencontrés dans les Laurentides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’état actuel des travaux ne rend pas compte de l’ampleur des questions philosophiques et des enjeux moraux suscités par l’apparition sur la scène internationale des réfugiés climatiques. Il est pourtant urgent de leur accorder une protection à travers des accords internationaux. Les philosophes qui se sont penchés sur le sujet ont été induits en erreur tant par la multiplicité des termes employés que leur absence de définitions. Ce travail critique la tendance actuelle des militants écologistes à vouloir englober des populations aux problèmes divers sous le terme de réfugié. Banaliser l’emploi du terme de réfugié n’est pas seulement fallacieux mais également dangereux. A terme, les militants se tourneront vers la Convention de Genève pour revendiquer que les populations déplacées soient considérées comme des réfugiés. Or la Convention de Genève n’est pas un outil adéquat pour remédier au sort de ces populations. De plus, on ne peut élargir le statut de réfugié pour inclure ces populations sans risquer de perdre sa crédibilité et son efficience. Suivre la pente qu’emprunte les militants nous mènerait à accorder le même traitement aux réfugiés climatiques et aux réfugiés politiques, ce qui est une erreur. Notre hypothèse est que les habitants des petits pays insulaires à l’inverse des autres populations ont besoin d’un élargissement de la Convention de Genève. Nous arguerons que nous avons des devoirs et des responsabilités envers eux que nous n’avons pas envers les réfugiés politiques. Pour défendre ce point de vue, il faut définir clairement ce qu’est un réfugié climatique et justifier cette appellation. Nous devrons donc confronter la notion de réfugié climatique à d’autres notions concurrentes. Une fois les termes définis, nous envisagerons les enjeux éthiques à travers le prisme des questions de justice globale. Nous verrons que pour déterminer qui devrait remédier au sort des réfugiés climatique, il ne suffit pas de se référer à la responsabilité causale. Cela nous mènera à arguer que bien que séduisant, le principe pollueur-payeur n’est pas un outil adéquat pour guider la réflexion. Nous serons également amenés à nous interroger sur la pertinence d’une institution environnementale globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise est une recherche exploratoire sur les expériences de localisation vécues dans l’espace urbain montréalais par des sujets en relation à l’information dite « de localisation ». La localisation est un processus d’orientation spatiale où l’emplacement d’un lieu dans l’espace est un problème à résoudre. Cette exploration est basée sur la théorisation de l’information proposée par Bateson (1972) et le développement du concept de dispositif par Belin (2002) et Agamben (2007) à la suite de Foucault, la localisation étant le concept empirique exploratoire. Le processus de localisation est investigué quant à son caractère médiatique : l’information de localisation est le medium qui, en étant un résultat et une cause de l’action, donne forme à ce processus mené par l’effort. Un travail de terrain ethnométhodologique déployé par le biais d’observations empiriques et d’entrevues qualitatives permet d’identifier certaines conditions qui rendent possibles, dans la vie quotidienne, les relations entre l’information de localisation, l’espace urbain et un sujet. Étant majoritairement vécue lors de déplacements présents, futurs ou passés, la localisation est ainsi conceptualisée en tant que wayfinding : l’action de déterminer quelles voies ou trajets emprunter pour se rendre d’un point A à un point B. Ce mémoire est en réalité une problématisation ouverte qui vise à explorer et identifier certains enjeux qui sont au cœur des processus de localisation dans l’espace urbain montréalais. Si « [l]e fait humain par excellence », comme le souligne Leroi-Gouhran (1965) « est peut-être moins la création de l’outil que la domestication du temps et de l’espace » (p. 139), le fait d’habiter en un certain temps et en un certain espace est en soi une relation problématique de confiance. Le vivant et le non-vivant habitent des espaces aménagés qui sont continuellement transformés par leur détermination mutuelle. En partant du constat que l’environnement construit se déploie en étant produit et aménagé dans des dispositions où certains de nos gestes sont délégués, peut-on envisager être libre sans (se) faire confiance ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte urbain du Burkina Faso, la chanson de sensibilisation se situe au coeur des pratiques sociales traditionnelles, des nouvelles économies culturelles et des approches participatives en matière de développement. Cette pratique répond à des enjeux particuliers au contexte local et aux relations internationales. La musique comme outil commun de communication sociale artistique rejoint des stratégies professionnelles différentes chez les artistes-musiciens et les associations locales. Pour les premiers, nous pouvons porter un regard sur la place du musicien dans la société contemporaine burkinabè, entre paupérisation et mondialisation. Pour les seconds, la chanson de sensibilisation s’inscrit comme une tentative d’innover dans les approches d’Information, Éducation et Communication (IEC) pour la santé et la Communication pour le Changement de Comportement (CCC). Ce mémoire présente les modes de collaboration entre les artistes-musiciens et les associations locales qui oeuvrent en santé au Burkina Faso. Il décrit l’état respectif de leur champ puis analyse les négociations sociales issues de leur rencontre. La problématique de recherche s’inscrit dans des courants de recherche en anthropologie et établit un pont avec la praxis de l’animation sociale et culturelle. La chaîne de création (production-diffusion-consommation) permet de poser un regard historique sur les concepts de culture et de développement dans le contexte particulier de l’Afrique de l’Ouest francophone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction – Dissocié un trouble psychiatrique primaire (TPP) concomitant à un problème d’abus de substances d’une psychose induite par consommation de substance (PICS) peut être une tâche difficile puisque plusieurs symptômes sont similaires. La dichotomie entre les symptômes négatifs et les symptômes positifs de la schizophrénie a été suggéré comme étant un indicateur puisque les symptômes négatifs ne sont pas caractéristiques d’un double diagnostic (Potvin, Sepehry, & Stip, 2006). Objectif – Cette étude explore la possibilité de distinguer des sous-groupes au sein de notre échantillon en utilisant le fonctionnement cognitif en vue d’identifier des facteurs qui permettraient un meilleur défférentiel entre un TPP concomitant à un problème d’abus de substance d’une psychose induite par consommation de méthamphétamines (MA). L’hypothèse stipule que les individus avec un TPP présenteraient des déficits cognitifs différents comparativement aux individus avec une PICS. Méthode – Les données utilisés font parties d’une étude longitudinale qui s’est déroulée à Vancouver, CB, Canada. 172 utilsateurs de MA et présentant une psychose ont été recruté. L’utilisation de substances, la sévérité des symptômes et des déficits cognitifs ont été évalué. Résultats – Des analyses par regroupement ont révélé deux profiles: les individus du Groupe 1 ont une performance inférieure au score total du Gambling task (M=-28,1) ainsi qu’un pourcentage de rétention inférieur au Hopkins Verbal Learning Test – Revised (HVLT- R; M=63) comparativement à ceux du Groupe 2. Les individus du Groupe 1 ont plus de symptômes négatifs, t=2,29, p<0.05 et ont plus tendance à avoir reçu un diagnostic psychiatrique, X2(3) = 16.26, p< 0.001. Conclusion – Les résultats suggèrent que des facteurs cognitifs pourraient aider à identifier un TPP concomitant à l’abus de MA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le taux d’homicide est un bon indicateur de la violence générale dans un pays. De plus, il s’agit du crime le mieux mesuré car il est rare qu’un homicide passe inaperçu. De nombreux auteurs ont donc cherché à expliquer ce qui pouvait influencer la variation du taux d’homicide dans les pays du monde. Leurs résultats ont mis à jour certains prédicteurs qui influenceraient le taux d’homicide dans les pays du monde. Il s’agit notamment du niveau de vie mesuré à l’aide du PIB par habitant, de l’inégalité, mesuré à l’aide du coefficient GINI ou encore des facteurs démographiques. Ces facteurs criminogènes sont tous de niveau macroscopique sur lesquels il est difficile d’agir. Ce mémoire intégrera au modèle, en plus des prédicteurs déjà connus, des variables plus proximales (consommation d’alcool, de drogue, présence de criminalité organisée, corruption, taux de criminalité, etc.) afin de voir s’ils pourraient également influencer la variation du taux d’homicide. Cette étude se concentrera sur le taux d’homicide de 41 pays européens. Une sélection de nos variables sera effectuée à l’aide d’analyses bivariées (corrélation, corrélation partielle) avant d’intégrer les variables restantes dans plusieurs modèles de régression multiple qui permettra in fine d’isoler les variables ayant une réelle influence sur le taux d’homicide. Les résultats indiquent que les facteurs proximaux ont une réelle influence sur le taux d’homicide. En effet, non seulement deux variables proximales (l’abus de la consommation d’alcool, et le pourcentage de personne s’étant déclaré victime de cambriolage) sont, après avoir pris en considération de nombreuses variables de niveau macroscopique, significativement liées au taux d’homicide mais en plus, le fait d’intégrer ce type de variables dans un modèle de régression multiple fait augmenter la variance expliquée. Ces variables de type proximales ont donc une grande importance dans l’explication de la variation du taux d’homicide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail contribue au champ d’études sur l’adoption de politique publique des États américains en étudiant quantitativement leurs réactions à l’enjeu du réchauffement climatique. Suivant l’approche des déterminants internes, des facteurs économiques, politiques et environnementaux sont utilisés pour expliquer la densité réglementaire étatique limitant la production de gaz à effet de serre. La variable dépendante constitue la principale contribution de ce travail puisqu’elle incarne une revue exhaustive des options législatives adoptées par les États américains et les regroupe en six catégories. Les déterminants internes identifiés permettent d’expliquer pourquoi certains États sont des instigateurs ou des retardataires dans le dossier du réchauffement climatique. Les principaux facteurs explicatifs sont la présence d’une population idéologiquement libérale et de groupes d’intérêts environnementaux forts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche s’intéresse aux espaces équivoques, soit des espaces jugés ambigus en raison des modes d’appropriation qu’on y retrouve. Par un processus heuristique et à l’aide d’une double étude de cas exploratoire, qui emprunte des méthodes de recherche ethnographiques, cette recherche a pour objectif de mieux caractériser les espaces équivoques. Les deux espaces considérés, tous deux situés dans la partie nord de l’arrondissement du Plateau-Mont-Royal à Montréal, sont un terrain vague informellement appelé le Parc sans Nom et une friche industrielle informellement appelée le Champ des Possibles. Les positions des gestionnaires municipaux et des usagers des deux sites seront analysées selon trois dimensions : les contraintes physiques, les mesures coercitives et les perceptions du risque et du potentiel de conflits. Les résultats issus de ces analyses permettent de constater que les espaces équivoques émergent par processus de co-construction. Ces résultats permettent également de soulever des pistes de réflexion sur les rapports entre les individus et l’espace urbain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des facteurs masculins sont identifiés dans près de la moitié des cas d’infertilité. À ce jour, les tests évaluant la fertilité masculine demeurent peu prédictifs de la survenue d’une grossesse. Dans le but de pallier cette lacune, nous avons mis au point deux nouveaux tests mesurant l’intégrité de l’ADN et le temps de survie des spermatozoïdes. Nous avons effectué une étude prospective portant sur 42 couples infertiles suivis en fécondation in vitro (FIV). Le spermogramme a été effectué selon les critères de l’Organisation Mondiale de la Santé (OMS) et le temps de survie des spermatozoïdes exposés à un détergent cationique a été mesuré en observant la mobilité sous microscope. L’intégrité de l’ADN des spermatozoïdes a été vérifiée par la nouvelle méthode de marquage radioenzymatique et par analyse de la structure de la chromatine (SCSA). Tous les tests ont été réalisés sur la partie des échantillons de sperme non utilisée par la clinique de fertilité. Le projet a été approuvé par le comité d’éthique du Centre Hospitalier Universitaire de Montréal (CHUM) et les patients ont préalablement signé un formulaire de consentement éclairé. L’analyse des paramètres du spermogramme et de l’intégrité de l’ADN n’a montré aucune différence statistiquement significative entre les données chez les couples avec ou sans grossesse. Cependant, le taux de grossesse biochimique était statistiquement plus élevé chez les couples dont le temps de survie des spermatozoïdes était long (>250 s) comparativement à ceux dont ce temps était court (≤250 s): 66% vs 27% respectivement (p<0,05). Les taux de grossesse clinique et d’implantation étaient aussi plus élevés, mais les différences n’atteignaient pas le seuil de signification statistique. Nos résultats confirment que le spermogramme et la mesure de la fragmentation de l’ADN des spermatozoïdes ne sont pas de bons facteurs prédictifs des résultats de la FIV. Par contre, le test de survie des spermatozoïdes serait un meilleur indicateur de la possibilité d’une grossesse en FIV. L’amélioration de sa spécificité et un plus grand nombre de sujets sont nécessaires avant de proposer son application en clinique de fertilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aux lendemains de la Guerre de Sécession, le petit centre manufacturier de Warren, dans l’État du Rhode Island, attira plusieurs immigrants canadiens-français en quête de travail. Ces derniers s’organiseront rapidement en établissant un réseau paroissial, en fondant plusieurs sociétés mutuelles et en multipliant les commerces prêts à desservir une clientèle francophone de plus en plus nombreuse. Les premiers stades de développement de la communauté (1888-1895) avaient déjà été observés par Jean Lamarre dans le cadre de son mémoire de maîtrise (1985). D’une part, le chercheur avait remarqué un phénomène graduel d’enracinement des paroissiens et, d’autre part, l’analyse de leur profil socio-économique indiquait qu’ils travaillaient majoritairement à la filature. Par cette étude, nous avons voulu revisiter cette communauté au moment où sa présence dans le paysage industriel et urbain de Warren apparaît consolidée. Grâce aux listes nominatives du recensement fédéral de 1910 et aux publications gouvernementales parues à la même époque, nous évaluons l’ampleur des changements socio-économiques transformant la communauté en l’espace d’une quinzaine d’années. L’observation du processus d’intégration des Canadiens français à l’environnement industriel est complétée par une analyse de l’apport des femmes et des enfants au ménage ouvrier. Les conclusions principales de cette étude démontrent que malgré l’attrait indéniable que représente encore et toujours le secteur manufacturier auprès de nombreux travailleurs, les Canadiens français jouissent en 1910 d’une qualité de vie généralement supérieure à celle qui caractérisait leurs débuts au sein de la localité. Leur situation socio-économique s’apparentera d’ailleurs davantage à celle des anglophones de Warren, Yankees et Irlandais, que de celle des représentants de la « nouvelle vague d’immigration » (Polonais, Italiens et Portugais).