969 resultados para [JEL:C10] Mathématiques et méthodes quantitatives - Économétrie et méthodes statistiques
Resumo:
Thèse réalisée en co-tutelle avec l'Université Claude Bernard de Lyon 1, en France.
Resumo:
Contexte L’américanisation des habitudes de vie, notamment de l’alimentation, semble être en grande partie responsable de l’augmentation incessante de l’incidence élevée des maladies cardiovasculaires. La période postprandiale, où l’homéostasie vasculaire et métabolique est mise à l’épreuve, est d’une importance considérable dans le développement ou la prévention de l’athérosclérose et représente maintenant la majeure partie du temps d’éveil. La compréhension de l’influence de la composition d’un repas sur son impact postprandial est donc essentielle dans notre lutte dans la prévention de ces maladies. Objectifs L’objectif principal de ce projet de recherche était d’étudier les réponses endothéliale et métabolique à un repas de type méditerranéen mixte (MMM), puisqu’elles sont inconnues. Ce projet avait aussi pour objectifs d’évaluer l’impact microvasculaire d’un tel repas et de caractériser la composition postprandiale des acides gras plasmatiques. À titre comparatif, ces éléments ont aussi été étudiés suite à un repas riche en gras saturés (HSFAM). Méthodes Vingt-huit (28) hommes sains, exempts de facteurs de risque de maladies cardiovasculaires ont reçu de façon randomisée les deux repas à l’étude. Le MMM, composé de saumon frais et de légumes cuits dans l'huile d'olive, contenait 7.87g de SFA et 2.29g d’acides gras polyinsaturés oméga-3, tandis que le HSFAM, composé d'un sandwich déjeuner avec œuf, saucisse et fromage, contenait 14.78g de SFA. Les mesures de la fonction endothéliale mesurée par échographie brachiale (FMD), de la fonction microvasculaire mesurée par spectroscopie proche de l’infrarouge (NIRS) et de la composition des acides gras plasmatique ont été effectuées à jeun et en période postprandiale. Résultats Deux sous-groupes de répondeurs aux repas à l’étude se sont dégagés de ces travaux. Un premier sous-groupe de sujets ayant une triglycéridémie à jeun élevée, mais normale (hnTG) a démontré des altérations endothéliales seulement suivant le repas HSFAM. Un second sous-groupe de sujets ayant une triglycéridémie plus faible et normale (lnTG) n’a quant à lui pas subi d’altérations endothéliales suivant les deux repas à l’étude. Les sujets hnTG ont aussi démontré une charge triglycéridémique postprandiale (iAUC) plus importante et qui était de surcroît enrichie en acide stéarique suivant la HSFAM et en acide gras polyinsaturés oméga-3 suivant le MMM. L’évaluation par NIRS de la fonction microvasculaire nous révèle un ralentissement de la réoxygénation post-ischémique qui suggère une altération postprandiale du recrutement capillaire chez les sujets hnTG seulement. De telles altérations, qui semblent être plus importantes suivant le HSFAM, pourraient être en partie responsables de l’impact endothélial de ce repas. Conclusions Cet essai clinique démontre donc de façon novatrice qu’un repas MMM n’a pas d’effet endothélial délétère et que cette neutralité est indépendante de la triglycéridémie à jeun. De plus, une triglycéridémie à jeun élevée mais normale semble indiquer des dysfonctions endothéliales et métaboliques à des épreuves nutritionnelles tel un repas HSFAM. La consommation de repas méditerranéens par des individus sains à la triglycéridémie marginale serait bénéfique, peut-être même davantage que pour des individus de triglycéridémie plus faible, dans la prévention de l’athérogénèse et des maladies cardiovasculaires.
Resumo:
Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Plus de dix ans après la mise en place du projet d’harmonisation du droit du commerce électronique, l’ASEAN, « The Association of Southeast Asian Nations » rassemblant dix États membres en Asie du Sud-est, n’arrive toujours pas à doter chacun de ses États membres d’une législation harmonisée en la matière. Dans cette optique, nous tenterons, pour contribuer à cette harmonisation, de démontrer la situation problématique relative au droit du commerce électronique dans six des dix États membres de l’ASEAN où, en plus de leur non-uniformité législative, les textes nationaux régissant le formalisme du contrat électronique demeurent difficiles à comprendre, à interpréter et donc à appliquer ; ce qui cause parfois des erreurs interprétatives voire l’oubli total de ces textes. Cette expérience n’est pas unique dans l’ASEAN, car l’on trouve également de similaires situations dans d’autres juridictions, telles que le Canada et les États-Unis. Pour pallier cette rupture entre la loi et la jurisprudence, nous proposons une quête d’une méthode d’interprétation comme une piste de solution qui nous semble la plus pertinente au regard de l’état des textes déjà en vigueur et de l’objectif de l’harmonisation du droit du commerce électronique dans l’ASEAN. Parmi les méthodes interprétatives très variées, nous arrivons à identifier la méthode contextuelle, aussi large soit-elle, comme la méthode la plus pertinente eu égard aux caractéristiques particulières du formalisme du contrat électronique, à savoir l’écrit et la signature électroniques. Nous proposons donc une grille d’analyse de cette méthode composée de contextes juridique, technique et social, qui aideront les juristes, surtout les juges, à mieux saisir le sens des textes et à leur donner « une meilleure interprétation » en faveur de l’objectif de l’harmonisation du droit dans l’ASEAN.
L'anorexie mentale chez les adolescents et les jeunes adultes de sexe masculin: Recension des écrits
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat en psychologie clinique (D.Psy.)
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Le neuroblastome (NB) est une tumeur fréquente et agressive du jeune enfant. Les tumeurs de haut grade de forme métastatique, généralement développées chez l'enfant de plus de 1 an, sont associées à une importante mortalité malgré un traitement lourd incluant une chimiothérapie à haute dose. La chimiorésistance est donc un problème majeur qui caractérise ces NB de haut grade. Une des hypothèses pour expliquer cette chimiorésistance est celle de l’activation de l’autophagie, un mécanisme auquel recourent les cellules afin de faire face aux situations de stress. D’ailleurs, plusieurs études ont démontré que l'autophagie était activée à la suite des thérapies anticancéreuses. Son inhibition pourrait donc représenter une stratégie thérapeutique très intéressante pour le traitement de cancers. Le but de ce projet de recherche a été de mettre en évidence l'importance de l'autophagie dans les cellules du NB ainsi que l'effet de son inhibition sur la sensibilité des cellules du NB à la chimiothérapie conventionnelle. La présence d'autophagie dans les cellules de NB et sa valeur pronostic ont été évaluées par une étude immunohistochimique et par western blot sur 184 tumeurs patient. Ensuite, dans le but de déterminer l'effet de la chimiothérapie conventionnelle sur le niveau d'autophagie, des études in vitro sur 6 lignées cellulaires ont été effectuées utilisant des tests de mesure d'autophagie (MDC, monodanylcadaverine), de viabilité cellulaire (MTT) et de western blot. Celles ci ont été suivies par des tests d'inhibition de l'autophagie par deux méthodes: l’inactivation du gène ATG5 par un lentivirus contenant un shRNA ciblant ATG5 ou de l'hydroxychloroquine (HCQ), un inhibiteur pharmacologique de l’autophagie. Cette inhibition a été testée seule ou en combinaison avec une chimiothérapie conventionnelle dans le but de déterminer le rôle de l'autophagie dans la sensibilisation des cellules de NB à la chimiothérapie. Ensuite, l’intérêt de l’inhibition de l’autophagie a été évalué sur des modèles murins. Enfin, le niveau d'autophagie a été testé dans des cellules souches de NB. Notre étude a démonté que l'autophagie est présente à un niveau basal dans une majorité des NB mais qu'elle ne représentait pas un facteur pronostic dans ce type de tumeur. Les différentes chimiothérapies testées induisent une augmentation de l'autophagie dans les cellules du NB. Les deux tests d'inhibition ont démontré in vitro que l'autophagie participe à la résistance des cellules aux traitements chimiothérapeutiques classiques du NB. Le blocage de l’autophagie in vivo augmente l’efficacité de la chimiothérapie, cependant certaines données associées au traitement par HCQ devront être complétées. Cette étude démontre que l'inhibition de l'autophagie en combinaison avec la chimiothérapie classique représente une approche thérapeutique prometteuse dans le traitement du NB.
Resumo:
Objectif : Étudier l'association entre l’utilisation de contraceptifs hormonaux et le risque d'acquisition du VIH-1 chez les femmes au Malawi, en Afrique du Sud, en Zambie et au Zimbabwe. Devis : Analyses secondaires de 2887 femmes âgées de 17-55 ans ayant participé à l’étude HPTN 035, une étude de phase II/IIb sur l’efficacité de deux gels microbicides pour prévenir la transmission du VIH chez les femmes à risque. Méthodes : L'association entre l'utilisation de contraceptifs hormonaux et le risque d'acquisition du VIH-1 a été évaluée en utilisant des modèles de Cox. Des risques relatifs sont estimés où le groupe de référence est celui des femmes qui n’utilisent pas de contraceptifs hormonaux. De plus, un modèle multivarié de Cox est utilisé afin de contrôler pour les facteurs potentiellement confondants. Résultats : Les contraceptifs injectables ont été utilisés par 52,1% des femmes, alors que les contraceptifs oraux ont été utilisés par 20,7% de celles-ci. Pendant l'étude, il y a eu 192 séroconversions. L'incidence observée du VIH était de 2,28; 4,19 et 4,69 pour 100 personne-années pour les contraceptifs oraux, injectables et non hormonaux, respectivement. Lors de l’analyse multivariée, nous n'avons trouvé aucune association significative entre l’usage des contraceptifs hormonaux et l’acquisition du VIH-1. Le risque relatif ajusté (RRa) pour les contraceptifs oraux est de 0,573 (IC de 95% : [0,31-1,06]) et 0,981 (IC de 95% : [0,69 ; 1,39]) pour les contraceptifs injectables. Conclusions : Bien que cette étude ne démontre pas d’association entre l’usage des contraceptifs hormonaux et le VIH-1, nous concluons toutefois que ces méthodes de contraception ne protègent pas contre le VIH-1, et il est ainsi recommandé aux femmes utilisant des hormones contraceptives de toujours utiliser le condom pour prévenir l'infection au VIH-1.
Resumo:
L’imagerie médicale a longtemps été limitée à cause des performances médiocres des fluorophores organiques. Récemment la recherche sur les nanocristaux semi-conducteurs a grandement contribué à l’élargissement de la gamme d’applications de la luminescence dans les domaines de l’imagerie et du diagnostic. Les points quantiques (QDs) sont des nanocristaux de taille similaire aux protéines (2-10 nm) dont la longueur d’onde d’émission dépend de leur taille et de leur composition. Le fait que leur surface peut être fonctionnalisée facilement avec des biomolécules rend leur application particulièrement attrayante dans le milieu biologique. Des QDs de structure « coeur-coquille » ont été synthétisés selon nos besoins en longueur d’onde d’émission. Dans un premier article nous avons modifié la surface des QDs avec des petites molécules bi-fonctionnelles portant des groupes amines, carboxyles ou zwitterions. L’effet de la charge a été analysé sur le mode d’entrée des QDs dans deux types cellulaires. À l’aide d’inhibiteurs pharmacologiques spécifiques à certains modes d’internalisation, nous avons déterminé le mode d’internalisation prédominant. L’endocytose par les radeaux lipidiques représente le mode d’entrée le plus employé pour ces QDs de tailles similaires. D’autres modes participent également, mais à des degrés moindres. Des disparités dans les modes d’entrée ont été observées selon le ligand de surface. Nous avons ensuite analysé l’effet de l’agglomération de différents QDs sur leur internalisation dans des cellules microgliales. La caractérisation des agglomérats dans le milieu de culture cellulaire a été faite par la technique de fractionnement par couplage flux-force (AF4) associé à un détecteur de diffusion de la lumière. En fonction du ligand de surface et de la présence ou non de protéines du sérum, chacun des types de QDs se sont agglomérés de façon différente. À l'aide d’inhibiteur des modes d’internalisation, nous avons corrélé les données de tailles d’agglomérats avec leur mode d’entrée cellulaire. Les cellules microgliales sont les cellules immunitaires du système nerveux central (CNS). Elles répondent aux blessures ou à la présence d’inflammagènes en relâchant des cytokines pro-inflammatoires. Une inflammation non contrôlée du CNS peut conduire à la neurodégénérescence neuronale et est souvent observée dans les cas de maladies chroniques. Nous nous sommes intéressés au développement d’un nanosenseur pour mesurer des biomarqueurs du début de l’inflammation. Les méthodes classiques pour étudier l’inflammation consistent à mesurer le niveau de protéines ou molécules relâchées par les cellules stressées (par exemple monoxyde d’azote, IL-1β). Bien que précises, ces méthodes ne mesurent qu’indirectement l’activité de la caspase-1, responsable de la libération du l’IL-1β. De plus ces méthode ne peuvent pas être utilisées avec des cellules vivantes. Nous avons construit un nanosenseur basé sur le FRET entre un QD et un fluorophore organique reliés entre eux par un peptide qui est spécifiquement clivé par la caspase-1. Pour induire l’inflammation, nous avons utilisé des molécules de lipopolysaccharides (LPS). La molécule de LPS est amphiphile. Dans l’eau le LPS forme des nanoparticules, avec des régions hydrophobes à l’intérieure. Nous avons incorporé des QDs dans ces régions ce qui nous a permis de suivre le cheminement du LPS dans les cellules microgliales. Les LPS-QDs sont internalisés spécifiquement par les récepteurs TLR-4 à la surface des microglies. Le nanosenseur s’est montré fonctionnel dans la détermination de l’activité de la caspase-1 dans cellules microgliales activées par le LPS. Éventuellement, le senseur permettrait d’observer en temps réel l’effet de thérapies ciblant l’inflammation, sur l’activité de la caspase-1.
Resumo:
Historiquement, les animaux sauvages ont toujours représenté une ressource pour les hommes, assurant la sécurité alimentaire des sociétés locales et traditionnelles. L’exploitation touristique de la faune implique dès lors une évolution dans les modes de vie, la culture et les identités locales. L’objectif de cette recherche doctorale est d’analyser le récréotourisme faunique. Les activités récréotouristiques autour de la faune sauvage traduisent une requalification de la ressource faune, ce qui a des impacts à la fois sur les espaces humains et non humains, les jeux de construction territoriale et sur les rapports développés à la faune sauvage. Ce travail analyse les rapports que les sociétés entretiennent avec la faune sauvage à travers les activités récréotouristiques de chasse et de vision. Ces deux formes de tourisme sont généralement opposées car le tourisme de vision est présenté comme un usage non-consomptif de la ressource alors que le tourisme de chasse est reconnu comme un usage consomptif de la ressource. Dépassant certaines idées reçues sur les pratiques de la chasse et une approche manichéenne entre ces différentes activités, il convient d’interroger les distinctions et / ou le rapport dialogique entre ces pratiques. Afin de conduire cette recherche, le choix d’une analyse comparative a été retenu, laquelle se propose de mettre en perspective différentes études de cas en France et au Canada. Ce travail comparatif permet de mieux comprendre les enjeux touristiques et territoriaux associés à la gestion de la faune sauvage et de penser la transférabilité des processus observés entre différents terrains d’études. D’un point de vue méthodologique, ce travail doctoral nous a conduite à définir un cadre analytique organisé autour de quatre entrées croisant des (i) aspects conceptuels, (ii) l’analyse d’archives, (iii) des méthodes d’observation ainsi que (iv) des outils d’analyse des rapports homme / faune via l’analyse de discours des populations touristiques. La première partie de ce travail présente le contexte théorique de l’étude et la démarche systémique de cette recherche (chapitre 1, 2 et 3). En termes de résultat, ces présupposés méthodologiques et théoriques nous ont permis d’analyser comment les dynamiques du récréotourisme faunique agissent, réagissent et rétroagissent sur l’ensemble du système territorial. Ainsi, la deuxième partie interroge l’organisation socio-spatiale des activités récréotouristiques de chasse et de vision (chapitre 4 et 5). Ces différentes formes de tourisme sont analysées en prenant en compte l’implantation de ces activités au sein des territoires, les attentes touristiques de la part des visiteurs, et les effets des différentes pratiques sur les populations fauniques. La troisième et dernière partie s’intéresse à l’évolution des rapports hommes / faune sauvage dans le temps et l’espace au regard des activités récréotouristiques développées. Le chapitre 6 s’intéresse aux rapports dialectiques entre processus de patrimonialisation et les usages acceptés ou non de la ressource faunique, alors que le chapitre 7 propose une réflexion sur les rapports hommes / animaux à l’échelle de l’individu en interrogeant l’éthique de chacun dans ses usages, ses comportements et ses pratiques développés autour de la faune sauvage.
Resumo:
Les services écosystémiques (SE) réfèrent aux bénéfices que produisent et soutiennent la biodiversité et les écosystèmes et qui profitent à l’être humain. Dans beaucoup de cas, ils ne sont pas pris en compte dans le système économique. Cette externalisation des SE engendre des décisions sur l’utilisation du territoire et des ressources naturelles qui ignorent leur contribution à la qualité de vie des communautés. Afin notamment de sensibiliser l’opinion publique à l’importance des SE et de mieux les intégrer dans les processus décisionnels, ont été développées des démarches d’évaluation économique des SE. Dans cette thèse, nous avons cherché à comprendre à la fois comment l’utilisation passée et actuelle des sols dans la région de Montréal affecte la valeur des SE et comment ces aménités naturelles sont perçues et valorisées par la population, dans une perspective d’aménagement futur du territoire. Pour ce faire, nous avons utilisé deux approches : l’analyse spatiale recourant aux systèmes d’information géographique et l’analyse des préférences exprimées par des techniques d’enquête. Pour l’analyse spatiale, nous avons combiné des analyses cartographiques à des valeurs monétaires associées aux SE publiées dans la littérature. Nous avons alors estimé la valeur des écosystèmes d’un territoire par le transfert de bénéfices, de prix de marchés directs et de coûts évités. Cette démarche nous a permis de comprendre la relation entre l’utilisation actuelle du territoire du Grand Montréal écologique et la valeur des services fournis par les écosystèmes, que nous avons estimée à 2,2 milliards de dollars par année. Elle nous a permis aussi de mesurer les effets sur la valeur des SE du changement d’utilisation des sols entre les années 1960 et 2010. Nous avons montré que malgré différentes politiques de contrôle et d’encadrement de l’étalement urbain au cours de cette période, les pertes économiques non marchandes liées aux SE s’élèvent à 236 millions de dollars par année. Pour l’analyse des préférences exprimées, nous avons utlilisé deux méthodes, l’évaluation contingente et le choix multi-attributs, avec l’objectif de mesurer le consentement à payer de répondants pour des variations dans l’aménagement du territoire. Nous avons montré d’une part que les répondants valorisent significativement l’incidence des pratiques agro-environnementales sur la qualité de l’environnement et des paysages en consentant à payer entre 159 et 333 dollars par ménage par année pour une amélioration de la diversité du paysage agricole. D’autre part, leur volonté à payer pour l’amélioration de l’état des milieux humides du Québec est estimée entre 389 et 455 dollars par ménage par année. L’utilisation conjointe des deux méthodes nous a permis d’en comparer les résultats. Nous avons en outre démontré que le choix du format de question de valorisation de l’évaluation contingente affecte la convergence des résultats. Enfin, nous avons proposé des pistes de recherches futures portant sur l’intégration des démarches d’analyse biophysique, économique et politique dans des outils de prise de décision mieux adaptés à la dynamique des écosystèmes, de la biodiversité et des communautés humaines.
Resumo:
Introduction. Ce projet de recherche consiste en une étude cohorte prospective randomisée visant à évaluer les douleurs ressenties au niveau de l’articulation temporo-mandibulaire (ATM) lors d’une thérapie d’avancement mandibulaire grâce à un appareil fixe, le correcteur de classe II (CC) et d’un appareil amovible, le Twin-Block (TB). Matériels et méthodes. Cette étude comptait 26 patients (11 hommes et 15 femmes), âge moyen de 12ans 10mois (10ans 4mois à 15ans 10mois). Les sujets devaient avoir une malocclusion de classe II et être en croissance, CVM 2 ou 3 (Cervical Vertebral Maturation). Les patients étaient divisés en deux groupes : TB et CC. La douleur était évaluée selon l’axe I de l’examen du RDC/TMD (Research Diagnostic Criteria for Temporomandibular Disorders) à 7 reprises (T0 à T6). De plus, le patient devait remplir un questionnaire, à la maison, sur la douleur ressentie et la médication prise lors des 30 premiers jours. La douleur était évaluée avant l’insertion des appareils (T0), à 1 semaine (T1) post-insertion, 4 semaines plus tard (T2), 8 semaines (T3) où une expansion de 20 tours (environs 5 mm) était débutée, ensuite (T4) (T5) et (T6) chacun à 8 semaines d’intervalles. Les tests statistiques utilisés dans cette étude : le test «Wilcoxon à un échantillon» ainsi que le test «Mann-Whitney à échantillons indépendants ». Résultats et Discussion. La douleur à l’examen clinique est variable mais tend à diminuer avec le temps. Aucune différence, statistiquement significative, ne fut observée entre les 2 groupes en ce qui à trait aux diverses palpations effectuées. Parmi les patients ayant rapporté de la douleur, 40% l’ont ressentie surtout le matin et 63,3% ont dit qu’elle durait de moins d’une heure jusqu’à quelques heures. Conclusion. D’après nos résultats, lors d’une thérapie myofonctionnnelle, il n’y a pas de différence statistiquement significative entre la douleur occasionnée par un Twin-Block et celle produite par un correcteur de classe II fixe au niveau de l’ATM et des muscles du complexe facial.
Resumo:
Contexte : De manière générale, on considère que le processus de validation d’un instrument de mesure porte sur la validité et la fiabilité. Or, la nature dynamique et évolutive de certaines problématiques, comme la stigmatisation des personnes vivant avec le VIH (PVVIH), laisse croire qu’il est particulièrement important de réinvestir rapidement dans la pratique, les résultats produits par les mesures ainsi validées. Objectifs : La présente thèse vise à développer et valider une échelle de mesure des attitudes stigmatisantes envers les PVVIH en intégrant un dispositif participatif. La thèse utilise en partie les données d’une enquête de surveillance des attitudes envers les PVVIH au Québec, elle comporte trois études qui répondent aux trois objectifs spécifiques suivants : (1) valider la version révisée d’un instrument de mesure des attitudes favorables à la stigmatisation dans la population générale du Québec envers les PVVIH; (2) analyser la relation entre la mesure des attitudes favorables à la stigmatisation et le recours au dépistage du VIH dans la population générale du Québec; (3) décrire et analyser les processus de circulation et d’utilisation des connaissances produites par l’instrument de mesure dans les réseaux professionnels des membres d’un comité consultatif. Méthodes : Un comité consultatif réunissant plusieurs partenaires issus de différents milieux a été constitué dès l’obtention de la subvention. Il a été consulté et informé avant, pendant et après l’enquête téléphonique populationnelle (n=1500) ayant permis de colliger les données. L’Échelle des Attitudes Stigmatisantes envers les Personnes Vivant avec le VIH (EASE-PVVIH) a été validée au moyen de plusieurs analyses psychométriques : analyses factorielles exploratoires et confirmatives, corrélations, régression linéaire multiple, test-t, tests d’hypothèses d’invariance de la structure factorielle et alphas de Cronbach (objectif 1). L’association entre les attitudes favorables à la stigmatisation et le recours au dépistage du VIH a été testée à l’aide de régressions logistiques hiérarchiques (objectif 2). Quant aux processus de circulation et d’utilisation des connaissances dans les réseaux professionnels, ils ont été analysés au moyen d’une étude de cas rétrospective (objectif 3). Résultats : Les analyses ont révélé trois résultats importants. Premièrement, d’un point de vue psychométrique, l’EASE-PVVIH est un outil fiable et valide pour mesurer les attitudes stigmatisantes envers les personnes vivant avec le VIH. Deuxièmement, sous une certaine forme caractérisée par l’inquiétude éprouvée lors de rencontres occasionnelles, les attitudes stigmatisantes par rapport aux personnes vivant avec le VIH semblent nuire au recours au test de dépistage dans la population générale au Québec. Troisièmement, un dispositif participatif en particulier, soit un comité consultatif, semble être un moyen pour favoriser le réinvestissement rapide et étendre la portée des résultats produits par la recherche dans des actions concrètes de santé publique. Conclusion : Ces résultats mettent en lumière la portée d’un dispositif participatif pour la validation d’instrument de mesure. L’arrimage entre les préoccupations scientifiques et pratiques apparaît être une avenue prometteuse pour améliorer la qualité et la pertinence sociale des données produites par les mesures.
Resumo:
Thèse réalisée en cotutelle avec Michèle Prévost (Ph.D), Professeure titulaire au département des génies civil, géologique et des mines de l'École Polytechnique de Montréal.