221 resultados para Probabilité de couverture
Resumo:
Plusieurs chercheurs considèrent qu’il existe un modèle québécois quant aux politiques sociales et économiques. Mais qu’en est-il sur le plan de la réduction des inégalités? Plus spécifiquement, est-ce que les citoyens du Québec perçoivent différemment les inégalités et sont-ils favorables lorsque l’État intervient pour les réduire? Et comment la presse québécoise réagit-elle vis-à-vis de cet enjeu? Ce mémoire se penche sur ces questions et vise à déterminer si le Québec se distingue de l’Ontario relativement à la perception des inégalités socio-économiques et à leur représentation médiatique. Deux types de données sont analysés : 1) une enquête de l’ISSP de 1992 portant sur les attitudes des Canadiens face aux inégalités socio-économiques 2) la couverture médiatique de l’élaboration d’une loi sur l’équité salariale visant la réduction d’une inégalité. Ces sources de données permettent d’étudier les différences de perceptions et de représentation des inégalités selon deux approches distinctes, mais complémentaires. De plus, dans une perspective comparative, le Québec est comparé à l’Ontario au cours des deux analyses. Les résultats de cette recherche montrent que sur le plan des perceptions et des attitudes, les deux provinces se ressemblaient quant à l’importance attribuée à la performance et au niveau d’études et de responsabilités pour déterminer le salaire d’un individu. De plus, les Québécois et les Ontariens allouaient un niveau d’importance similaire au réseau de contacts pour réussir dans la vie. Par contre, les Québécois étaient plus favorables à l’intervention étatique pour réduire les inégalités économiques et attribuaient davantage d’importance aux besoins familiaux pour déterminer ce qu’une personne devrait gagner. De manière marginalement significative, les Québécois considéraient dans une moindre mesure que les Ontariens, que les attributs personnels dont le sexe ou la religion affectaient les chances de réussite. L'analyse de contenu des quatre journaux a permis de constater à la fois des ressemblances et des divergences entre les deux provinces. Les deux couvertures médiatiques traitaient sensiblement des mêmes thèmes et rapportaient des sources similaires. Toutefois, il y avait trois différences majeures. Les journaux québécois se sont montrés moins favorables à la Loi sur l’équité salariale que dans la province voisine et ils ont davantage mentionné les conséquences économiques de la loi. Par ailleurs, les causes de l’iniquité salariale rapportées dans les articles au Québec concernaient davantage les différences de capital humain que la discrimination systémique vécue par les femmes, contrairement à ce qui est apparu dans les deux médias en Ontario. Le résultat le plus important de ce mémoire est que la couverture médiatique québécoise ne concorde pas avec l’opinion publique qui était favorable à l’intervention étatique pour réduire les inégalités. Ceci rappelle que les médias ne sont pas le simple reflet de la réalité ni de l'opinion publique. Ils présentent différentes facettes de la réalité à l'intérieur de certains paramètres, dont la structure organisationnelle dans laquelle ils se trouvent.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Escherichia coli est un agent de mammites environnementales. Par contre, E. coli peut persister dans la glande mammaire. Les objectifs de cette étude étaient de confirmer la présence d’infection persistante chez des vaches laitières canadiennes et d’identifier la possibilité de contagion entre les quartiers d’une vache dans une cohorte de 91 fermes suivies durant deux ans. De plus, les souches persistantes ont été comparées à des souches transitoires. Les profils génétiques ont été obtenus à l’aide de l’électrophorèse sur gel en champs pulsés. La détection de la résistance pour sept antibiotiques s’est faite par microdilution. Vingt-sept gènes de virulence ont été déterminés par hybridation sur colonies. De la persistance a été détectée chez 18 vaches et de la contagion entre quartiers, chez deux vaches. La proportion de résistance chez les E. coli persistants était de 0,0 % (enrofloxacin) à 27,8 % (ampicilline et tétracycline) et de 0,0 % (enrofloxacin) à 16,8 % (tétracycline) pour les E. coli transitoires. Pour chacune des résistances additionnelles, les probabilités d’être une souche persistante augmentaient par un facteur 1,6 (95% IC : 1.1, 2.4). Une souche résistante à l’ampicilline et à la céphalothine avait une plus forte probabilité d’être persistante. Une souche possédant le gène iroN avait 5.4 fois plus de probabilité (95% IC: 1.2, 24.0) d’être persistante. Aussi, une souche positive pour le gène sitA avait 8.6 fois plus de probabilité (95% IC: 2.8, 27.1) d’être persistante. En conclusion, cette étude confirme qu’E. coli peut persister dans la glande mammaire des vaches laitières canadiennes et que ces E. coli sont différents de ceux impliqués lors d’infection transitoire.
Resumo:
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.
Resumo:
Le contrôle psychologique parental est un facteur de risque réputé pour les problèmes intériorisés des enfants (p. ex., Affrunti & Ginsburg, 2011; McLeod, Wood & Weisz, 2007). Selon la Théorie de l'auto-détermination, le contrôle psychologique mène aux problèmes intériorisés (Ryan, Deci, Grolnick, & La Guardia, 2006) car il brime le besoin fondamental d'autonomie. En effet, recevoir de la pression afin de penser, se comporter et se sentir d’une certaine façon (Ryan, 1982) semble favoriser une régulation trop rigide et surcontrôlée (Ryan et al., 2006). Suite aux travaux de Soenens et Vansteenkiste (2010), la distinction conceptuelle entre deux formes de contrôle psychologique, soit manifestes (p. ex., les menaces, forcer physiquement) et dissimulées (p. ex., la surprotection, le marchandage), ont été utilisées pour évaluer le style parental (Étude 1) et les pratiques disciplinaires (Étude 2). Le contrôle psychologique parental et le soutien de l'autonomie (Étude 2) ont été mesurés durant la petite enfance puisque (1) les problèmes intériorisés émergent tôt, (2) le développement du sentiment d'autonomie est central au cours de cette période, et (3) attire probablement plus de contrôle psychologique parental. Avec ses deux articles, la présente thèse vise à clarifier la façon dont le contrôle psychologique manifeste et dissimulé est lié au développement précoce de problèmes intériorisés. L'étude 1 est une étude populationnelle examinant l'impact relatif du style parental sur des trajectoires développementales d'anxiété (N = 2 120 enfants; de 2,5 à 8 ans) avec de nombreux facteurs de risque potentiels provenant de l'enfant, de la mère et de la famille, tous mesurés au cours de la petite enfance. Les résultats ont montré qu'en plus de la timidité des enfants, de la dépression maternelle et du dysfonctionnement familial, le contrôle psychologique manifeste (c.-à-d., coercitif) et dissimulé (c.-à-d., la surprotection) augmentent le risque, pour les enfants, de suivre une trajectoire d'anxiété élevée. Une interaction entre la dépression maternelle et le contrôle dissimulé a été trouvée, ce qui indique que la surprotection augmente l'anxiété des enfants seulement lorsque la dépression maternelle est élevée. Enfin, le contrôle dissimulé prédit également l'anxiété telle que rapportée par les enseignants de deuxième année. Le deuxième article est une étude observationnelle qui examine comment l'autorégulation (AR) des bambins est liée au développement précoce des symptômes intériorisés, tout en explorant comment les pratiques disciplinaires parentales (contrôle et soutien de l'autonomie) y sont associées. Les pratiques parentales ont été codifiées lors d'une requête de rangement à 2 ans (contexte "Do", N = 102), tandis que l'AR des bambins a été codifiée à la fois durant la tâche de rangement ("Do") et durant une tâche d'interdiction (ne pas toucher à des jouets attrayants; contexte «Don't » ), à 2 ans puis à 3 ans. Les symptômes d'anxiété / dépression des enfants ont été évalués par leurs parents à 4,5 ans. Les résultats ont révélé que l'AR aux interdictions à 3 ans diminue la probabilité des enfants à manifester des taux élevés de symptômes d'anxiété / dépression. Les analyses ont aussi révélé que le parentage soutenant l'autonomie était lié à l'AR des enfants aux requêtes, un an plus tard. En revanche, le contrôle psychologique manifeste et dissimulé ont eu des effets délétères sur l'AR. Enfin, seul le contrôle dissimulé a augmenté les probabilités de présenter des niveaux plus élevés de problèmes intériorisés et ce, au-delà de l’effet protecteur de l'AR des bambins. Des résultats mitigés sont issus de cette thèse concernant les effets respectifs des deux formes de contrôle sur les problèmes intériorisés, dépendamment de l'informateur (mère c. enseignant) et de la méthodologie (questionnaires c. données observationnelles). Toutefois, le contrôle psychologique dissimulé était lié à ce problème affectif dans les deux études. Enfin, le soutien à l'autonomie s’est révélé être un facteur de protection potentiel et mériterait d'être étudié davantage.
Resumo:
Les amidons non modifiées et modifiés représentent un groupe d’excipients biodégradables et abondants particulièrement intéressant. Ils ont été largement utilisés en tant qu’excipients à des fins diverses dans des formulations de comprimés, tels que liants et/ou agents de délitement. Le carboxyméthylamidon sodique à haute teneur en amylose atomisé (SD HASCA) a été récemment proposé comme un excipient hydrophile à libération prolongée innovant dans les formes posologiques orales solides. Le carboxyméthylamidon sodique à haute teneur en amylose amorphe (HASCA) a d'abord été produit par l'éthérification de l'amidon de maïs à haute teneur en amylose avec le chloroacétate. HASCA a été par la suite séché par atomisation pour obtenir le SD HASCA. Ce nouvel excipient a montré des propriétés présentant certains avantages dans la production de formes galéniques à libération prolongée. Les comprimés matriciels produits à partir de SD HASCA sont peu coûteux, simples à formuler et faciles à produire par compression directe. Le principal objectif de cette recherche était de poursuivre le développement et l'optimisation des comprimés matriciels utilisant SD HASCA comme excipient pour des formulations orales à libération prolongée. A cet effet, des tests de dissolution simulant les conditions physiologiques du tractus gastro-intestinal les plus pertinentes, en tenant compte de la nature du polymère à l’étude, ont été utilisés pour évaluer les caractéristiques à libération prolongée et démontrer la performance des formulations SD HASCA. Une étude clinique exploratoire a également été réalisée pour évaluer les propriétés de libération prolongée de cette nouvelle forme galénique dans le tractus gastro-intestinal. Le premier article présenté dans cette thèse a évalué les propriétés de libération prolongée et l'intégrité physique de formulations contenant un mélange comprimé de principe actif, de chlorure de sodium et de SD HASCA, dans des milieux de dissolution biologiquement pertinentes. L'influence de différentes valeurs de pH acide et de temps de séjour dans le milieu acide a été étudiée. Le profil de libération prolongée du principe actif à partir d'une formulation de SD HASCA optimisée n'a pas été significativement affecté ni par la valeur de pH acide ni par le temps de séjour dans le milieu acide. Ces résultats suggèrent une influence limitée de la variabilité intra et interindividuelle du pH gastrique sur la cinétique de libération à partir de matrices de SD HASCA. De plus, la formulation optimisée a gardé son intégrité pendant toute la durée des tests de dissolution. L’étude in vivo exploratoire a démontré une absorption prolongée du principe actif après administration orale des comprimés matriciels de SD HASCA et a montré que les comprimés ne se sont pas désintégrés en passant par l'estomac et qu’ils ont résisté à l’hydrolyse par les α-amylases dans l'intestin. Le deuxième article présente le développement de comprimés SD HASCA pour une administration orale une fois par jour et deux fois par jour contenant du chlorhydrate de tramadol (100 mg et 200 mg). Ces formulations à libération prolongée ont présenté des valeurs de dureté élevées sans nécessiter l'ajout de liants, ce qui facilite la production et la manipulation des comprimés au niveau industriel. La force de compression appliquée pour produire les comprimés n'a pas d'incidence significative sur les profils de libération du principe actif. Le temps de libération totale à partir de comprimés SD HASCA a augmenté de manière significative avec le poids du comprimé et peut, de ce fait, être utilisé pour moduler le temps de libération à partir de ces formulations. Lorsque les comprimés ont été exposés à un gradient de pH et à un milieu à 40% d'éthanol, un gel très rigide s’est formé progressivement sur leur surface amenant à la libération prolongée du principe actif. Ces propriétés ont indiqué que SD HASCA est un excipient robuste pour la production de formes galéniques orales à libération prolongée, pouvant réduire la probabilité d’une libération massive de principe actif et, en conséquence, des effets secondaires, même dans le cas de co-administration avec une forte dose d'alcool. Le troisième article a étudié l'effet de α-amylase sur la libération de principe actif à partir de comprimés SD HASCA contenant de l’acétaminophène et du chlorhydrate de tramadol qui ont été développés dans les premières étapes de cette recherche (Acetaminophen SR et Tramadol SR). La modélisation mathématique a montré qu'une augmentation de la concentration d’α-amylase a entraîné une augmentation de l'érosion de polymère par rapport à la diffusion de principe actif comme étant le principal mécanisme contrôlant la libération de principe actif, pour les deux formulations et les deux temps de résidence en milieu acide. Cependant, même si le mécanisme de libération peut être affecté, des concentrations d’α-amylase allant de 0 UI/L à 20000 UI/L n'ont pas eu d'incidence significative sur les profils de libération prolongée à partir de comprimés SD HASCA, indépendamment de la durée de séjour en milieu acide, le principe actif utilisé, la teneur en polymère et la différente composition de chaque formulation. Le travail présenté dans cette thèse démontre clairement l'utilité de SD HASCA en tant qu'un excipient à libération prolongée efficace.
Resumo:
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.
Resumo:
Facial Artery Musculomucosal Flap in Skull Base Reconstruction Xie L. MD, Lavigne F. MD, Rahal A. MD, Moubayed SP MD, Ayad T. MD Introduction: Failure in skull base defects reconstruction can have serious consequences such as meningitis and pneumocephalus. The nasoseptal flap is usually the first choice but alternatives are necessary when this flap is not available. The facial artery musculomucosal (FAMM) flap has proven to be successful in head and neck reconstruction but it has never been reported in skull base reconstruction. Objective: To show that the FAMM flap can reach some key areas of the skull base and be considered as a new alternative in skull base defects reconstruction. Methods: We conducted a cadaveric study with harvest of modified FAMM flaps, endoscopic skull base dissection and maxillectomies in 13 specimens. Measures were taken for each harvested FAMM flap. Results: The approximate mean area for reconstruction from the combination of the distal FAMM and the extension flaps is 15.90 cm2. The flaps successfully covered the simulated defects of the frontal sinus, the ethmoid areas, the planum sphenoidale, and the sella turcica. Conclusion: The FAMM flap can be considered as a new alternative in the reconstruction of skull base defects. Modifications add extra length to the traditional FAMM flap and can contribute to a tighter seal of the defect as opposed to the FAMM flap alone.
Resumo:
Avec la vague des départs à la retraite amorcée par la génération des baby-boomers, le marché du travail canadien traversera inéluctablement une période de transition. Le vide laissé par ces départs obligera de nombreuses industries à réajuster leur tir afin de ne pas être secouées par de trop fortes turbulences. À cet effet, l’impact des retraites n’aura pas la même ampleur pour chacune des branches d’activité. S’appuyant sur les données longitudinales de l’Enquête sur la dynamique du travail et du revenu de 1993 à 2010, cette recherche analyse les tendances au fil du temps et entre les industries en regard des départs d’emploi de carrière. Une attention particulière est aussi portée aux emplois de transition selon le secteur d’activité, afin de déterminer si cette pratique peut amoindrir les répercussions des départs d’emploi de carrière. Les résultats montrent que l’intensité des départs d’emploi de carrière s’accroit au cours de la période considérée et que d’importantes variations existent entre les travailleurs des diverses catégories d’industries examinées. L’industrie des services professionnels, scientifiques et techniques affiche la plus faible proportion de travailleurs ayant quitté un emploi de carrière (26 %). À l’autre extrémité du spectre, les travailleurs du secteur de l’hébergement et des services de restauration présentent la plus forte probabilité d’effectuer un départ d’emploi de carrière (47 %). Au chapitre des emplois de transition, les travailleurs en provenance l’industrie de la construction montrent la plus forte propension à oeuvrer au sein d’un tel type d’emploi. Si certaines industries se démarquent des autres, cela s’explique surtout en raison du comportement différentiel des travailleurs les plus âgés (55 à 64 ans).
Resumo:
Les études sur les milieux de vie et la santé ont traditionnellement porté sur le seul quartier de résidence. Des critiques ont été émises à cet égard, soulignant le fait que la mobilité quotidienne des individus n’était pas prise en compte et que l’accent mis sur le quartier de résidence se faisait au détriment d’autres milieux de vie où les individus passent du temps, c’est-à-dire leur espace d’activité. Bien que la mobilité quotidienne fasse l’objet d’un intérêt croissant en santé publique, peu d’études se sont intéressé aux inégalités sociales de santé. Ceci, même en dépit du fait que différents groupes sociaux n’ont pas nécessairement la même capacité à accéder à des milieux favorables pour la santé. Le lien entre les inégalités en matière de mobilité et les inégalités sociales de santé mérite d’être exploré. Dans cette thèse, je développe d'abord une proposition conceptuelle qui ancre la mobilité quotidienne dans le concept de potentiel de mobilité. Le potentiel de mobilité englobe les opportunités et les lieux que les individus peuvent choisir d’accéder en convertissant leur potentiel en mobilité réalisée. Le potentiel de mobilité est façonné par des caractéristiques individuelles (ex. le revenu) et géographiques (ex. la proximité des transports en commun), ainsi que par des règles régissant l’accès à certaines ressources et à certains lieux (ex. le droit). Ces caractéristiques et règles sont inégalement distribuées entre les groupes sociaux. Des inégalités sociales en matière de mobilité réalisée peuvent donc en découler, autant en termes de l'ampleur de la mobilité spatiale que des expositions contextuelles rencontrées dans l'espace d'activité. Je discute de différents processus par lesquels les inégalités en matière de mobilité réalisée peuvent mener à des inégalités sociales de santé. Par exemple, les groupes défavorisés sont plus susceptibles de vivre et de mener des activités dans des milieux défavorisés, comparativement à leurs homologues plus riches, ce qui pourrait contribuer aux différences de santé entre ces groupes. Cette proposition conceptuelle est mise à l’épreuve dans deux études empiriques. Les données de la première vague de collecte de l’étude Interdisciplinaire sur les inégalités sociales de santé (ISIS) menée à Montréal, Canada (2011-2012) ont été analysées. Dans cette étude, 2 093 jeunes adultes (18-25 ans) ont rempli un questionnaire et fourni des informations socio-démographiques, sur leur consommation de tabac et sur leurs lieux d’activités. Leur statut socio-économique a été opérationnalisé à l’aide de leur plus haut niveau d'éducation atteint. Les lieux de résidence et d'activité ont servi à créer des zones tampons de 500 mètres à partir du réseau routier. Des mesures de défavorisation et de disponibilité des détaillants de produits du tabac ont été agrégées au sein des ces zones tampons. Dans une première étude empirique je compare l'exposition à la défavorisation dans le quartier résidentiel et celle dans l'espace d’activité non-résidentiel entre les plus et les moins éduqués. J’identifie également des variables individuelles et du quartier de résidence associées au niveau de défavorisation mesuré dans l’espace d’activité. Les résultats démontrent qu’il y a un gradient social dans l’exposition à la défavorisation résidentielle et dans l’espace d’activité : elle augmente à mesure que le niveau d’éducation diminue. Chez les moins éduqués les écarts dans l’exposition à la défavorisation sont plus marquées dans l’espace d’activité que dans le quartier de résidence, alors que chez les moyennement éduqués, elle diminuent. Un niveau inférieur d'éducation, l'âge croissant, le fait d’être ni aux études, ni à l’emploi, ainsi que la défavorisation résidentielle sont positivement corrélés à la défavorisation dans l’espace d’activité. Dans la seconde étude empirique j'étudie l'association entre le tabagisme et deux expositions contextuelles (la défavorisation et la disponibilité de détaillants de tabac) mesurées dans le quartier de résidence et dans l’espace d’activité non-résidentiel. J'évalue si les inégalités sociales dans ces expositions contribuent à expliquer les inégalités sociales dans le tabagisme. J’observe que les jeunes dont les activités quotidiennes ont lieu dans des milieux défavorisés sont plus susceptibles de fumer. La présence de détaillants de tabac dans le quartier de résidence et dans l’espace d’activité est aussi associée à la probabilité de fumer, alors que le fait de vivre dans un quartier caractérisé par une forte défavorisation protège du tabagisme. En revanche, aucune des variables contextuelles n’affectent de manière significative l’association entre le niveau d’éducation et le tabagisme. Les résultats de cette thèse soulignent l’importance de considérer non seulement le quartier de résidence, mais aussi les lieux où les gens mènent leurs activités quotidiennes, pour comprendre le lien entre le contexte et les inégalités sociales de santé. En discussion, j’élabore sur l’idée de reconnaître la mobilité quotidienne comme facteur de différenciation sociale chez les jeunes adultes. En outre, je conclus que l’identification de facteurs favorisant ou contraignant la mobilité quotidienne des individus est nécessaire afin: 1 ) d’acquérir une meilleure compréhension de la façon dont les inégalités sociales en matière de mobilité (potentielle et réalisée) surviennent et influencent la santé et 2) d’identifier des cibles d’intervention en santé publique visant à créer des environnements sains et équitables.
Resumo:
La situation de la forêt tropicale dans les pays en développement en général, et en République Démocratique du Congo (RDC) en particulier, est inquiétante. Les émissions de dioxyde de carbone dues au déboisement sont de l’ordre de 1,6 GtCO2e/an, soit 17% des émissions mondiales de « gaz à effet de serre ». Sous l’égide de la Convention-cadre des Nations Unies sur les changements climatiques, le REDD+ a été institué pour lutter contre cette déforestation et la dégradation des forêts. Cette étude examine les différentes opportunités qu’offre ce programme pour l’aménagement écosystémique du couvert forestier de la RDC et les obstacles contextuels à sa mise en oeuvre. Pour la RDC, le REDD+ présente un certain nombre d’opportunités : réduction des émissions liées au déboisement et à la dégradation des forêts; amorce des travaux d’afforestation et de reforestation par une gestion durable des ressources conduisant à la création des emplois et favorisant la croissance des PIB et des exports; accroissement du rendement et maintien d’une plus grande couverture des besoins alimentaires. Le REDD+ peut favoriser la croissance du Produit intérieur brut agricole. Il peut contribuer à l’électrification des ménages et réduire de moitié les dépenses des ménages dépendant de l’exploitation minière et des hydrocarbures et, ainsi, générer des milliers d’emplois en infrastructures. Pour les populations locales et autochtones, il peut contribuer aussi à protéger et à valoriser les cultures liées à la forêt. Mais, face aux pesanteurs d’ordre juridique, politique, social, économique, technologique et culturel caractéristiques de ce pays, ces opportunités risquent d’être amenuisées, sinon annihilées. Étant donné que l’essentiel du déploiement du dispositif du REDD+ se réalisera dans les zones rurales congolaises, l’obstacle majeur reste le droit coutumier. La solution serait d’harmoniser les exigences et finalités du REDD+ non seulement avec le Code forestier de 2002 et ses mesures d’exécution mais aussi avec le droit coutumier auquel les communautés locales et autochtones s’identifient.
Resumo:
Contexte et objectifs. Ce mémoire propose un modèle conceptuel écologique afin de mieux comprendre la violence dans les écoles. Les objectifs de cette recherche sont de ; 1) estimer l’effet des facteurs individuels, contextuels et environnementaux sur le risque de victimisation, 2) vérifier la présence d’interactions entre les différents facteurs. Méthodologie. Les élèves de 16 écoles primaires de la grande région métropolitaine de Montréal ont pris part à un sondage auto-révélé en lien avec différentes dimensions liées à la victimisation en milieu scolaire. Des analyses descriptives ont été menées, dans un premier temps, pour dresser le portrait de la violence en milieu scolaire. Dans un second temps, l’emploi d’un modèle linéaire hiérarchique généralisé (MLHG) a permis d’estimer les effets de variables propres à l’individu, au contexte et à l’environnement sur le risque de victimisation. Résultats. Les résultats aux analyses multiniveaux montrent que des variables individuelles, contextuelles et environnementales influent sur la probabilité d’être victime de violence verbale, physique et dans les médias sociaux. Ainsi, les élèves les plus délinquants sont aussi ceux qui rapportent le plus d’antécédents de victimisation. Toutefois, ces résultats ne sont pas entièrement imputables aux caractéristiques des individus. Le risque de victimisation est atténué lorsque les « gardiens » interviennent pour mettre un terme au conflit et que les victimes se défendent. Enfin, le risque de victimisation est moins élevé dans les écoles où il y a un grand nombre d’élèves. Interprétation. Les résultats suggèrent que plusieurs facteurs qui ne sont pas liés aux victimes et aux délinquants permettent de mieux comprendre le processus de victimisation en milieu scolaire. Le rôle des gardiens de même que la taille des écoles sont des éléments centraux à la compréhension du passage à l’acte.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique
Resumo:
Le manuscrit constituant l'annexe 1 a été publié en décembre 2013 sous la référence : Vaccine. 2013 Dec 9;31(51):6087-91.