987 resultados para Méthodes épidémiologiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: Objective: To compare the long-term viability of percutaneously injected crushed auricular cartilage to surgically implanted cartilage in the rabbit. Methods: Auricular cartilage was harvested bilaterally in 10 New Zealand white rabbits. A 1 cm2 cartilage graft was harvested and implanted surgically on the upper nasal dorsum. The remaining cartilage was crushed and percutaneously injected on the lower nasal dorsum. Volume and mass of each graft were compared between pre-implantation and after 3 months of observation. A histological study was conducted to evaluate chondrocyte viability and degree of fibrosis on the grafts. Results: Mass and volume remained similar for surgically implanted cartilage grafts. Mass and volume diminished by an average of 47% and 40% respectively after 3 months for the injected crushed cartilage grafts. Chondrocyte viability was an average of 25% lower in the injected grafts. Conclusion: Cartilage injection is a promising technique that must be refined to increase long term chondrocyte viability. Developing an appropriate injection apparatus would improve this technique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, les applications intégrant un module de dialogues avancés sont en plein essor. En revanche, le processus d’universalisation de ces systèmes est rapidement décourageant : ceux-ci étant naturellement dépendants de la langue pour laquelle ils ont été conçus, chaque nouveau langage à intégrer requiert son propre temps de développement. Un constat qui ne s’améliore pas en considérant que la qualité est souvent tributaire de la taille de l’ensemble d’entraînement. Ce projet cherche donc à accélérer le processus. Il rend compte de différentes méthodes permettant de générer des versions polyglottes d’un premier système fonctionnel, à l’aide de la traduction statistique. L’information afférente aux données sources est projetée afin de générer des données cibles parentes, qui diminuent d’autant le temps de développement subséquent. En ce sens, plusieurs approches ont été expérimentées et analysées. Notamment, une méthode qui regroupe les données avant de réordonner les différents candidats de traduction permet d’obtenir de bons résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: La circulation extracorporelle (CEC) peut entraîner une dysfonction endothéliale pulmonaire et l’hypertension pulmonaire. Le SN50 agit au niveau de la signalisation cellulaire pour prévenir ces réactions à la CEC et pourrait renverser la dysfonction endothéliale pulmonaire post-CEC sans effets néfastes sur l’hémodynamie. Méthodes: Quatre groups de porcs ont reçu un parmi quatre traîtements avant de subir 90 minutes de CEC et 60 minutes de reperfusion: (1) milrinone nébulisé; (2) sildenafil nébulisé; (3) placebo nébulisé; et (4) SN-50 intraveineux. Un monitoring hémodynamique invasif a été utilisé. La réactivité vasculaire des artères pulmonaires de deuxième ordre a été évaluée face à l’acétylcholine et la bradykinine. Résultats: Le sildénafil produit une augmentation significative de la pression de l’artère pulmonaire (PAP) moyenne à 60 minutes de reperfusion par rapport au début de la chirurgie. Les relaxations dépendantes de l’endothélium face à la bradykinine étaient meilleurs dans les groupes milrinone et SN-50 et surtout dans le groupe sildénafil par rapport au groupe placébo. Le SN-50 produisait de moins bonnes relaxations dépendantes de l’endothélium face à l’acétylcholine que les autres traitements incluant placébo. Conclusion: Le sildénafil prévient mieux la dysfonction endothéliale pulmonaire que les autres traitements. Les bénéfices du SN-50 sont possiblement sous-estimés vu que la dose n’a pas pu être ajustée à la durée de CEC. Le sildenafil inhalé mérite une étude plus importante chez l’humain et le SN-50 dans un model de CEC animal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. L’espace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur l’espace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principal pôle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent l’espace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon plusieurs évidences, la présence de cellules tumorales occultes dans la circulation sanguine aux premières étapes du cancer du sein pourrait être à l’origine des lésions métastasiques. Plusieurs études de recherche ont montré que l’utilisation de la RT-PCR en temps réel pour la détection des cellules tumorales circulantes CTC offre la meilleure sensibilité dans la quantification des marqueurs tumoraux. Présentement de routine, le suivi du cancer du sein est réalisé par le dosage immunologique des marqueurs sériques CA15-3 et CEA. Cependant, la faible sensibilité de ces marqueurs aux stades précoces de la maladie et leur manque de spécificité tissulaire ne permet pas leur utilisation pour le diagnostic et le pronostic du cancer du sein. Le diagnostic de la maladie est plutôt basé sur l’analyse d’une biopsie de la tumeur ou des ganglions lymphatiques, des méthodes invasives, coûteuses et peu adaptées pour un suivi de routine dans l’évaluation du risque de rechute et de la réponse au traitement. Malgré les études, la détection de ces cellules dans les laboratoires hospitaliers est rare. Nous avons envisagé de mettre en place un nouveau test RT-PCR pour la détection de cellules malignes du cancer du sein dans la circulation. La spécificité et la sensibilité de plusieurs marqueurs potentiels ont été comparées. Le but ultime de ce projet est d’offrir la détection d’un ou d’une combinaison de ces marqueurs de routine aux patientes. Nos résultats montrent une corrélation positive entre l’expression des ARNm des marqueurs CK19 et de HER2 avec les données cliniques des patientes. De plus, la sensibilité et la spécificité des tests RT-PCR sont comparables à la littérature récente. Finalement, la comparaison de notre test avec le dosage immunologique des marqueurs tumoraux sériques CA15.3 et CEA a montré que la détection de la CK19 et de HER2 par RT-PCR est plus sensible chez les patientes de cancer du sein métastatique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse était d’évaluer Espace de Transition (ET), un programme novateur d’intervention par les arts de la scène visant à favoriser la réadaptation psychosociale d’adolescents et de jeunes adultes présentant des troubles mentaux stabilisés et à diminuer la stigmatisation des individus aux prises avec des problèmes de santé mentale. Ce programme a été conçu par une équipe de cliniciens du département de psychiatrie du Centre hospitalier universitaire Ste-Justine, en collaboration avec des artistes professionnels, et est livré depuis le printemps 2009. L’évaluation du programme ET a été conduite de manière indépendante, selon des approches collaborative et naturaliste et en usant de méthodes mixtes. Les données de recherche ont été recueillies avant pendant et après le programme auprès de l’ensemble des participants à deux sessions distinctes (N = 24), de même qu’auprès des deux artistes instructeurs, de la psychoéducatrice responsable du soutien clinique, ainsi que des psychiatres et autres intervenants ayant référé des participants (N=11). Des entrevues semi-structurées individuelles et de groupe, des observations directes et des questionnaires ont servi à recueillir les données nécessaires à l’évaluation. Des analyses quantitatives de variance, ainsi que des analyses qualitatives thématiques ont été réalisées et leurs résultats ont été interprétés de manière intégrée. Le premier chapitre empirique de la thèse relate l’évaluation de la mise en œuvre du programme ET. Cette étude a permis de constater que le programme avait rejoint des participants correspondant de près à la population visée et que ceux-ci présentaient globalement des niveaux élevés d’assiduité, d’engagement et d’appréciation du programme. L’évaluation de la mise en œuvre a en outre permis de conclure que la plupart des composantes du programme identifiées a priori comme ses paramètres essentiels ont été livrées tel que prévu par les concepteurs et que la plupart d’entre elles ont été largement appréciées et jugées pertinentes par les participants et les autres répondants consultés. Le second chapitre empirique consiste en un article portant sur l’évaluation des effets du programme ET relativement à l’atteinte de trois de ses objectifs intermédiaires, soient l’amélioration 1) du fonctionnement global, 2) du confort relationnel et des compétences sociales, ainsi que 3) de la perception de soi des participants présentant des troubles mentaux. Les résultats de cette étude ont révélé des changements significatifs et positifs dans le fonctionnement global des participants suite au programme, tel qu’évalué par les cliniciens référents et partiellement corroboré par les participants eux-mêmes. Des améliorations en ce qui concerne le confort relationnel, les compétences sociales et la perception de soi ont également été objectivées chez une proportion substantielle de participants, bien que celles-ci ne se soient pas traduites en des différences significatives décelées par les analyses quantitatives de groupe. Le troisième et dernier chapitre empirique de la thèse relate une étude exploratoire des mécanismes sous-tendant les effets du programme ET ayant conduit à l’élaboration inductive d’une théorie d’action de ce programme. Cette investigation qualitative a révélé quatre catégories de mécanismes, soient des processus de 1) gain d’expérience et de gratification sociales, 2) de désensibilisation par exposition graduelle, 3) de succès et de valorisation, et 4) de normalisation. Cette étude a également permis de suggérer les caractéristiques et composantes du programme qui favorisent la mise en place ou l’impact de ces mécanismes, tels l’environnement et l’animation non cliniques du programme, la composition hétérogène des groupes de participants, le recours aux arts de la scène, ainsi que la poursuite d’une réalisation collective et son partage avec un public extérieur au programme. Globalement, les études présentées dans la thèse appuient la pertinence et le caractère prometteur du programme ET, tout en suggérant des pistes d’amélioration potentielle pour ses versions ultérieures. Par extension, la thèse soutient l’efficacité potentielle d’interventions réadaptatives mettant en œuvre des composantes apparentées à celles du programme ET pour soutenir le rétablissement des jeunes aux prises avec des troubles mentaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récepteur V2 (V2R) de la vasopressine est un récepteur couplé aux protéines G (RCPG), jouant un rôle fondamental dans le maintien de l’homéostasie hydrosodique. À l’instar de nombreux RCPGs, il est capable d’interagir avec plusieurs types de protéines G hétérotrimériques et possède des voies de signalisation peu explorées aux mécanismes mal compris. Ces voies non canoniques font l’objet des travaux exposés dans ce mémoire. Il s’agit d’explorer les caractéristiques et mécanismes de la signalisation de V2R via G12, et de la voie d’activation d’ERK 1/2 par transactivation du récepteur de l’insulin-like growth factor 1, IGF1R. Par des études de transfert d’énergie de résonance de bioluminescence (BRET), nous exposons la capacité de V2R à interagir avec la sous-unité Gα12 ainsi que la modulation de la conformation de l’hétérotrimère G12 par l’agoniste de V2R, l’arginine-vasopressine. Ces travaux dévoilent également la modulation de l’interaction entre Gα12 et son effecteur classique RhoA, suggérant un engagement de RhoA, ainsi que la potentialisation via Gα12 de la production d’AMP cyclique. À l’aide de diverses méthodes d’inhibition sélective, nos résultats précisent les mécanismes de la transactivation. Ils supportent notamment le rôle initiateur de l’activation de Src par V2R et l’absence d’implication des ligands connus d’IGF1R dans la transactivation. La métalloprotéase MMP 3 apparaît par ailleurs comme un bon candidat pour réguler la transactivation. Ce projet met en lumière des modes de signalisation peu explorés de V2R, dont l’implication physiologique et physiopathologique pourrait s’avérer significative, au-delà d’un apport fondamental dans la compréhension de la signalisation des RCPGs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte L’américanisation des habitudes de vie, notamment de l’alimentation, semble être en grande partie responsable de l’augmentation incessante de l’incidence élevée des maladies cardiovasculaires. La période postprandiale, où l’homéostasie vasculaire et métabolique est mise à l’épreuve, est d’une importance considérable dans le développement ou la prévention de l’athérosclérose et représente maintenant la majeure partie du temps d’éveil. La compréhension de l’influence de la composition d’un repas sur son impact postprandial est donc essentielle dans notre lutte dans la prévention de ces maladies. Objectifs L’objectif principal de ce projet de recherche était d’étudier les réponses endothéliale et métabolique à un repas de type méditerranéen mixte (MMM), puisqu’elles sont inconnues. Ce projet avait aussi pour objectifs d’évaluer l’impact microvasculaire d’un tel repas et de caractériser la composition postprandiale des acides gras plasmatiques. À titre comparatif, ces éléments ont aussi été étudiés suite à un repas riche en gras saturés (HSFAM). Méthodes Vingt-huit (28) hommes sains, exempts de facteurs de risque de maladies cardiovasculaires ont reçu de façon randomisée les deux repas à l’étude. Le MMM, composé de saumon frais et de légumes cuits dans l'huile d'olive, contenait 7.87g de SFA et 2.29g d’acides gras polyinsaturés oméga-3, tandis que le HSFAM, composé d'un sandwich déjeuner avec œuf, saucisse et fromage, contenait 14.78g de SFA. Les mesures de la fonction endothéliale mesurée par échographie brachiale (FMD), de la fonction microvasculaire mesurée par spectroscopie proche de l’infrarouge (NIRS) et de la composition des acides gras plasmatique ont été effectuées à jeun et en période postprandiale. Résultats Deux sous-groupes de répondeurs aux repas à l’étude se sont dégagés de ces travaux. Un premier sous-groupe de sujets ayant une triglycéridémie à jeun élevée, mais normale (hnTG) a démontré des altérations endothéliales seulement suivant le repas HSFAM. Un second sous-groupe de sujets ayant une triglycéridémie plus faible et normale (lnTG) n’a quant à lui pas subi d’altérations endothéliales suivant les deux repas à l’étude. Les sujets hnTG ont aussi démontré une charge triglycéridémique postprandiale (iAUC) plus importante et qui était de surcroît enrichie en acide stéarique suivant la HSFAM et en acide gras polyinsaturés oméga-3 suivant le MMM. L’évaluation par NIRS de la fonction microvasculaire nous révèle un ralentissement de la réoxygénation post-ischémique qui suggère une altération postprandiale du recrutement capillaire chez les sujets hnTG seulement. De telles altérations, qui semblent être plus importantes suivant le HSFAM, pourraient être en partie responsables de l’impact endothélial de ce repas. Conclusions Cet essai clinique démontre donc de façon novatrice qu’un repas MMM n’a pas d’effet endothélial délétère et que cette neutralité est indépendante de la triglycéridémie à jeun. De plus, une triglycéridémie à jeun élevée mais normale semble indiquer des dysfonctions endothéliales et métaboliques à des épreuves nutritionnelles tel un repas HSFAM. La consommation de repas méditerranéens par des individus sains à la triglycéridémie marginale serait bénéfique, peut-être même davantage que pour des individus de triglycéridémie plus faible, dans la prévention de l’athérogénèse et des maladies cardiovasculaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.