991 resultados para analyse transversale de séries chronologique
Resumo:
La violence contre les policiers a des répercussions importantes à la fois chez les policiers et pour les administrateurs de la police. En 2005, le taux canadien de voies de fait contre la police a atteint son plus haut sommet en plusieurs décennies, faisant état d’une situation préoccupante. Plusieurs provinces canadiennes connaissent d’ailleurs une hausse marquée de la violence contre leurs policiers depuis plusieurs années. Cette étude vise donc à examiner et à comprendre l’évolution du phénomène de violence contre les policiers au Canada par l’identification de facteurs qui pourraient expliquer les variations du taux de voies de fait contre les policiers. La méthode d’analyse privilégiée dans le cadre de cette étude est une analyse transversale de séries chronologiques regroupées (pooled time series) qui traite des données portant sur les dix provinces canadiennes pour une période allant de 1986 à 2006. Les résultats indiquent que plusieurs facteurs ont un impact sur la violence dont sont victimes les policiers : la proportion de la population âgée entre 15 et 24 ans, la proportion d’hommes de 15 ans et plus, la proportion de la population vivant dans une région urbaine, la proportion de gens divorcés, les taux résiduels de crimes de violence et de crimes rattachés aux drogues, et le nombre d’évasions et de personnes en liberté sans excuse. La présence croissante de policières, qui fait encore l’objet de débats, semble quant à elle réduire le nombre de voies de fait contre la police, quoique l’impact de ce facteur soit de faible portée. Au Québec, la une hausse importante du taux de voies de fait contre les policiers pourrait s’expliquer par la hausse de plusieurs facteurs identifiés comme jouant un rôle dans le phénomène, bien qu’il ne faille pas écarter qu’un changement dans la reportabilité puisse entrer en ligne de compte.
Resumo:
À première vue inoffensif, le conte de fées parodique français du XVIIIe siècle dissimule, sous le couvert de la féérie, un discours anticontesque et antiromanesque. Qu'ils soient explicites ou non, ces propos prennent généralement forme dans les métalepses émises tant par les narrateurs que par les narrataires dans le texte lui-même ou dans le péritexte auctorial. L'élaboration d'une typologie, à partir de dix contes publiés entre 1730 et 1754, offre une vue d'ensemble de ce phénomène narratif épars et ouvre la voie à une analyse transversale des discours tenus dans ce trope. Loin d'être innocent, le contenu des métalepses contesques laisse poindre une nouvelle poétique du conte et du roman qui s'éloigne progressivement de l'idéal classique régissant toujours ces deux genres au XVIIIe siècle.
Resumo:
Rapport d’analyse de pratiques présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maîtrise ès sciences (M.Sc.) en service social
Resumo:
La présente recherche a comme sujet la gestion des risques au cœur de la prise de décision en protection de l’enfance. Elle a comme objectif une meilleure compréhension de la pratique à partir de la construction des logiques d’action déployées par les professionnels ainsi que la réflexion sur le sens qu’ils accordent à leurs actions. Le projet est porté par une posture constructiviste : les professionnels « construisent » la situation problématique de l’enfant à protéger tout comme ils construisent la solution envisagée. C’est à partir de la combinaison entre la réflexivité (Schön; Racine; Giddens) et la délibération éthique (Bossé, Morin et Dallaire) que des groupes de discussion impliquant des professionnels de professions et de statuts différents ont été réalisés au Centre jeunesse de l’Estrie. Ces groupes s’inscrivent dans une méthodologie qualitative laissant place aux discours des acteurs et sont accompagnés d’entretiens individuels comme stratégie complémentaire de cueillette de données. Les données ont été explorées à partir d’une analyse de contenu sous trois axes (Van der Maren) : une analyse horizontale (dégager les éléments pertinents à partir d’un cadre de délibération éthique), une analyse verticale (dégager les interactions et les inter-influences dans les groupes de discussion) et une analyse transversale (dégager des noyaux de sens et des logiques d’action à travers les discours). Les résultats permettent d’établir des séquences dans la prise de décision des professionnels à partir desquelles se construisent les logiques d’action. Trois logiques sont dégagées de l’analyse de contenu ⎯ collaborative, délibérative, légaliste ⎯ qui sont appuyées sur plusieurs dimensions regroupées à l’intérieur de trois axes d’intérêt : le rapport au mandat de protection, le rapport à la situation et le rapport au risque. Au-delà des logiques elles-mêmes, les résultats portent également à réfléchir des éléments de processus qui influencent la prise de décision. Ces éléments amènent à explorer et à questionner la posture professionnelle et la conviction, le dialogue et la présence d’espace de traduction ainsi que l’apport de la délibération collective. Au final, la recherche permet de réaffirmer la complexité de la pratique de protection de l’enfance mais elle conduit également à plaider en faveur d’une conscientisation de la pratique. Dégager des logiques d’action procure des clés de réflexivité pour les professionnels les menant à conscientiser leur prise de décision et ainsi accéder
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Malgré l’abondance d’information concernant la dentisterie esthétique, les évidences scientifiques à son sujet sont rarissimes. Ainsi, cette recherche a pour premier but d’accroître ces évidences en faisant la lumière sur les paramètres esthétiques et leur influence auprès de l’appréciation générale du sourire, tel que perçu par des sujets non-experts. Une invitation à répondre à un questionnaire autoadministré anonyme a été envoyée à la communauté de l’Université de Montréal par courrier électronique. 467 personnes ont accepté de répondre au questionnaire, toutefois seulement 263 ont terminé l'opération. L’analyse des données démontre que le seul critère esthétique objectif ayant une influence statistiquement significative sur l’appréciation générale est « l’arrangement des dents » (p = .028). Les dents versées diminuent significativement l’attrait général par rapport à des dents droites (p = .012) ou chevauchées (p = .009). Par contre, en corrélant ces données avec les convictions des sujets, « l’angulation de la médiane dentaire supérieure » ainsi que « l’inclinaison du plan incisif » présentent aussi des différences statistiquement significatives. « L’état d’usure des dents » et leur « position » sont les éléments, parmi le vocabulaire suggéré, les plus importants pour l’attrait du sourire aux yeux des patients. Avec les limitations de cette étude, on peut conclure que (1) « l’arrangement des dents », « l’angulation de la médiane dentaire supérieure » et « l’inclinaison du plan incisif » influencent de manière statistiquement significative l’appréciation générale du sourire. (2) Parmi les critères objectifs étudiés, « l'arrangement des dents » a la plus forte influence sur l’appréciation générale d’un sourire. (3) Une corrélation statistiquement significative entre les deux séquences d’évaluation et la faible variance intrasujet indiquent que l’appréciation générale d’un sourire est une action réflexe basée, entre autres, sur des paramètres morphologiques. Application pratique : Les résultats de cette étude insinuent que les traitements visant à corriger l’alignement, l’usure des dents et ceux visant à blanchir les dents d’un individu sont susceptibles d’augmenter l’attrait de son sourire tel que perçu par des sujets non-experts.
Resumo:
Estuaries are areas which, from their structure, their fonctioning, and their localisation, are subject to significant contribution of nutrients. One of the objectif of the RNO, the French network for coastal water quality monitoring, is to assess the levels and trends of nutrient concentrations in estuaries. A linear model was used in order to describe and to explain the total dissolved nitrogen concentration evolution in the three most important estuaries on the Chanel-Atlantic front (Seine, Loire and Gironde). As a first step, the selection of a reliable data set was performed. Then total dissolved nitrogen evolution schemes in estuary environment were graphically studied, and allowed a resonable choice of covariables. The salinity played a major role in explaining nitrogen concentration variability in estuary, and dilution lines were proved to be a useful tool to detect outlying observations and to model the nitrogenlsalinity relation. Increasing trends were detected by the model, with a high magnitude in Seine, intermediate in Loire, and lower in Gironde. The non linear trend estimated in Loire and Seine estuaries could be due to important interannual variations as suggest in graphics. In the objective of the QUADRIGE database valorisation, a discussion on the statistical model, and on the RNO hydrological data sampling strategy, allowed to formulate suggestions towards a better exploitation of nutrient data.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires.
Resumo:
Le virus du papillome humain (HPV) est l’infection sexuellement transmise la plus fréquente au monde. Plusieurs études ont établi son implication dans l’étiologie de pratiquement tous les cancers du col de l’utérus, une maladie qui constitue un problème de santé majeur dans les pays pauvres. Le HPV est également responsable de 90% des cancers de l’anus, 40-50% des cancers du pénis, de la vulve et du vagin, et 30% des cancers de la tête et du cou. L’objectif général de cette thèse est de combler les lacunes relatives aux connaissances sur la distribution génotypique du HPV dans les lésions néoplasiques cervicales utérines et de la tête et du cou, plus particulièrement en Afrique. Les objectifs spécifiques sont les suivants: 1) analyser la distribution génotypique du HPV dans les cancers du col de l’utérus et faire une analyse comparative de cette distribution dans cinq pays africains en fonction de la prévalence du VIH; 2) évaluer la présence du HPV dans les cancers de la tête et du cou au Sénégal; 3) faire une revue de la littérature et une méta-analyse sur la distribution du HPV dans les cancers de la tête et du cou dans toutes les régions du monde. Pour le premier et le second objectifs, qui découlent d’un large projet international coordonné par l’Institut Catalan d’Oncologie pour l’Organisation Mondiale de la Santé (OMS), une étude transversale multicentrique a été menée au Mali et au Sénégal pour collecter des blocs de paraffine de patientes diagnostiquées entre 2001 et 2010 du cancer invasif du col et des cancers de la tête et du cou. Pour le troisième objectif, une revue exhaustive de la littérature a permis d’identifier tous les articles qui ont été publiés sur les cancers de la tête et du cou dans tous les pays du monde et d’effectuer une méta-analyse sur la prévalence de l’ADN du HPV selon le site du cancer et la région géographique. Notre analyse montre que les principaux types de HPV ciblés dans les vaccins prophylactiques (HPV16/18) représentent la majorité des types de HPV détectés dans le cancer invasif du col de l’utérus en Afrique subsaharienne. Par contre, le HPV45 vient au second rang dans certains pays d’Afrique, dont le Mali et le Sénégal. Nos données suggèrent également que le VIH aurait un rôle dans la contribution relative du HPV18 et HPV45 dans le développement du cancer du col de l’utérus. Au Sénégal, notre étude montre que la prévalence du HPV dans les cancers de la tête et du cou est très faible et ne semble pas jouer un rôle important dans l’oncogenèse. Finalement, la méta-analyse a mesuré la prévalence des HPV dans les cancers de la cavité orale, de l’oropharynx, du larynx et de l’hypopharynx, et confirme l’importante contribution relative du HPV16 dans ces cancers. Globalement, cette thèse permet de mieux comprendre l’impact potentiel des vaccins prophylactiques sur l’incidence des cancers associés au HPV.
Resumo:
Contexte: Le diabète de type 2 est un problème de santé publique important. La pratique régulière de l’activité physique contribue à la prévention de cette maladie chronique. Toutefois, peu de recherches portent sur l’association entre l’activité physique de transport, notamment la marche utilitaire, et le diabète. Objectif : L’objectif de cette étude est d’examiner l’association entre la présence d’un diagnostic de diabète de type 2 et les pratiques de marche utilitaire dans un échantillon transversal. Méthode : Cette étude est une analyse secondaire de données provenant d’un projet de recherche sur l’implantation d’un système de vélos libre-service. 7012 adultes ont été recrutés par téléphone au printemps 2009, à l’automne 2009 et à l’automne 2010. La marche utilitaire a été mesurée en utilisant des questions adaptées du International Physical Activity Questionnaire (IPAQ). L’association entre la marche utilitaire et le diabète auto-rapporté a été examinée au moyen d’analyses de régression logistique multivariées. L’influence des variables socio- démographiques, du niveau d’activité physique autre et de l’indice de masse corporelle a été contrôlée. Des analyses de sensibilité ont aussi été faites, utilisant un seuil différent pour le temps de marche utilitaire. Résultats : Dans le modèle final, la marche utilitaire est associée à une prévalence du diabète plus faible (RC=0,721; IC 95% : 0,547-0,950). Conclusion: La pratique de la marche utilitaire est associée à une prévalence plus faible de diabète auto-rapporté. La promotion de ce type d’activité physique aurait sa place dans la prévention du diabète dans une perspective de santé publique.