279 resultados para Régression logistique pénalisée


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: À date, il existe peu de données sur l’adhésion, la persistance et les coûts associés aux antidépresseurs selon le type d’assurance médicament (privé ou public). Objectif: Comparer selon le régime d’assurance médicament (privé ou public), l'adhésion, la persistance et les coûts des antidépresseurs. Méthodes de recherche: Une étude de cohorte appariée a été réalisée en utilisant des bases de données du Québec. Sujets: Nous avons sélectionné 194 patients assurés par un régime privé et 1923 patients assurés par le régime public de la Régie de l’assurance maladie du Québec (RAMQ) (18-64 ans) qui ont rempli au moins une ordonnance pour un antidépresseur entre décembre 2007 et septembre 2009. Mesures: L’adhésion, mesurée sur une période d’un an, a été estimée en utilisant le proportion of prescribed days covered (PPDC). Un modèle de régression linéaire a été utilisé afin d’estimer la différence moyenne en PPDC entre les patients assurés par un régime privé et ceux assurés par le régime public de la RAMQ. La persistance a été comparé entre ces deux groupes avec un modèle de régression de survie Cox, et le coût mensuel d'antidépresseurs ($ CAN) a été comparé entre ces deux groupes en utilisant un modèle de régression linéaire. Résultats: Le PPDC parmi les patients assurés par un régime privé était de 86,4% (intervalle de confiance (IC) 95%: 83,3%-89,5%) versus 81,3% (IC 95%: 80,1%-82,5%) pour les patients assurés par le régime public de la RAMQ, pour une différence moyenne ajustée de 6,7% (IC 95%: 3,0%-10,4%). La persistance après un an parmi les patients assurés par un régime privé était de 49,5% versus 18,9% pour les patients assurés par le régime public de la RAMQ (p <0,001), et le rapport de risque ajusté était de 0,48 (IC 95%: 0,30-0,76). Comparativement aux patients assurés par le régime public de la RAMQ, les patients ayant une assurance privée ont payé 14,94 $ CAD (95% CI: $12,30-$17,58) de plus par mois en moyenne pour leurs antidépresseurs. Conclusion: Les patients assurés par un régime privé avaient une meilleure adhésion, persistance, mais avaient aussi un plus haut coût pour leurs antidépresseurs que ceux assurés par le régime public de la RAMQ. Cette différence de coûts peut être due aux différentes exigences de paiement en pharmacie entre les deux régimes ainsi qu’aux limites des honoraires des pharmaciens imposés par le régime public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le stress oxydatif et la formation des radicaux libres sont impliqués dans plusieurs mécanismes de la mort neuronale qui caractérisent la maladie d'Alzheimer. Les antioxydants sont reconnus comme une source de protection contre le stress oxydatif et peuvent avoir un effet protecteur sur le développement de la maladie d’Alzheimer. Cette étude visait à évaluer le potentiel antioxydant, par le biais du score « oxygen radical absorbance capacity » (ORAC), de l’alimentation habituelle de personnes âgées atteintes de la maladie d’Alzheimer en comparaison avec des témoins appariés pour l’âge sans problèmes cognitifs. L’hypothèse stipulait que les patients atteints de la maladie d’Alzheimer ont une alimentation dont le potentiel antioxydant est inférieur à celui des témoins sans problèmes cognitifs. L’étude a consisté en des analyses secondaires de données provenant de l’étude « Nutrition-Mémoire » (NMS), durant laquelle quarante-deux patients avec une démence du type Alzheimer (DTA) probable et leurs aidants étaient suivis pendant une période de dix-huit mois. Pour la présente étude, les données provenaient de trois jours de collecte alimentaire, ont été colligées au début (T0) de l’étude NMS, selon la méthode « Multiple-Pass ». Le potentiel antioxydant de l’alimentation a été déterminé à l’aide de la description des aliments énumérés dans la base de données des valeurs ORAC de l’USDA. Les résultats de l’étude ont montré que les patients avaient une alimentation dont le potentiel antioxydant était inférieur à celui des témoins (13784,07 ± 7372,70 μmol TE/100g contre 23220,54 ± 10862,55 μmol TE/100g, patients et témoins, respectivement; p<0,0001). Les analyses de régression hiérarchique pas à pas montraient que l’IMC, l’éducation, et le groupe (patients, témoins) étaient des facteurs influençant le score ORAC total. La consommation des aliments riches en antioxydants est un comportement préventif à faible risque qui pourrait bénéficier des individus susceptibles de développer la maladie d'Alzheimer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le succès de carrière a fait l’objet d’une multitude d’études et deux formes de succès ont été identifiées; le succès subjectif et le succès objectif de carrière. Dans le cadre de notre recherche, nous nous sommes intéressés au succès subjectif de carrière compte tenu de son association confirmée avec le bien-être psychologique, la qualité de la vie au travail (Nabi, 2003; Peluchette, 1993), la motivation intrinsèque, la confiance en soi (Abele et Spurk, 2009b) et l’engagement envers l’organisation (Hennequin, 2009a). En outre, selon diverses études (Arthur, Khapova et Wilderom, 2005; El Akremi, Guerrero et Neveu, 2006), le succès de carrière a tendance à être examiné plus sur la base des critères objectifs (salaire et promotions) que des critères subjectifs (la perception de l’individu). Par ailleurs, il y a eu une méta-analyse, élaborée par Ng, Eby, Sorensen et Feldman (2005) qui a examiné les déterminants du succès de carrière, à la lumière de deux perspectives théoriques développées par Turner (1960); soit la perspective de la mobilité par concours « contest mobility » et la perspective de la mobilité sponsorisée « sponsored mobility ». Ces auteurs ont révélé que les recherches sur le succès de carrière ont une portée limitée; « there is only a limited range of variables being examined as predictor of career success » (p. 396); d’où la nécessité d’examiner d’autres déterminants de succès de carrière, en les associant aux deux perspectives théoriques développées par Turner (1960). La présente recherche s’inscrit également dans la lignée des études qui ont pour but d’analyser les déterminants du succès de carrière. Toutefois, elle traite des liens entre le succès subjectif de carrière, les possibilités de mobilité externe et la congruence personne-organisation. Sur la base des recommandations de Ng, Eby, Sorensen et Feldman (2005), nous avons associé la congruence personne-organisation au modèle de la mobilité sponsorisé et les possibilités de mobilité externe au modèle de la mobilité par concours. Notre étude est de type explicatif, compte tenu du fait qu’elle tente de vérifier les liens entre le succès subjectif de carrière, les possibilités de mobilité externe et la congruence personne-organisation. À cet effet, nous avons eu recours à des données qui ont été colligées auprès de professionnels des ressources humaines, membre de l’ordre des conseillers en ressources humaines et en relations industrielles (Saba et Dufour, 2005) afin de pouvoir tester empiriquement les liens que nous anticipions entre notre variable dépendante (succès subjectif de carrière) et nos variables indépendantes (congruence personne-organisation et possibilités de mobilité externe) en tenant compte à la fois de notre variable médiatrice, à savoir le sponsorat organisationnel qui intervient dans le lien entre la congruence personne-organisation, et de nos variables de contrôle, qui sont l’âge, le genre, le statut marital, la scolarité, l'ancienneté dans l'organisation et l'ancienneté sur le marché du travail. Par ailleurs, nous avons adopté une méthode quantitative et nous avons procédé à des analyses statistiques, afin de faire sortir les caractéristiques de la distribution des variables; à des analyses bivariées, afin d’analyser les relations (statistiques) entre notre variable dépendante (succès subjectif de carrière) et chacune de nos variables indépendantes (la congruence personne-organisation et les possibilités de mobilité externe) et à une régression multiple, afin de déterminer si des corrélations existent entre les différentes variables à l’étude, nous avons également effectué un test de médiation afin de vérifier le rôle médiateur du sponsorat organisationnel dans le lien entre la congruence personne-organisation et le succès subjectif de carrière. De façon générale, nos hypothèses de recherche on été confirmées. Les possibilités de mobilité externe et la congruence personne-organisation sont liées positivement au succès subjectif de carrière. De plus, nous avons identifié une médiation partielle du sponsorat organisationnel dans le lien entre la congruence personne-organisation et le succès subjectif de carrière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières années l'industrie du charbon a connu un essor important. L'importance du charbon dans l'économie mondiale provient d'une demande mondiale soutenue et de niveaux de production en hausse constante. De ce fait, le nombre élevé d'importateurs et d'exportateurs est à l'origine d'un système d'échange complexe où la compétition est féroce. En effet, un nombre grandissant de pays importateurs se partagent les sources d'approvisionnement tandis qu'un nombre limité de pays exportateurs s'efforcent de répondre à la demande tout en essayant de s'accaparer le plus de parts du marché mondial. L'objectif de cette recherche s'inscrit dans ce contexte en démontrant les bénéfices associés aux chaînes logistiques résilientes pour tout acteur de l'industrie soucieux de devancer la compétition. Une analyse de la logistique de l'industrie du charbon permet entre autres de se pencher sur les questions suivantes: Comment les infrastructures influencent-elles la résilience d'une chaîne logistique? Quels risques est-ce que les catastrophes naturelles présentent pour une chaîne logistique? Comment la gouvernance influence-t-elle la résilience d'une chaîne logistique? Une chaîne logistique représente le trajet effectué par un bien ou produit au cours de son cycle de vie, du point d'origine au point de consommation. Ceci étant dit, le meilleur moyen de régler les problèmes inhérents aux chaînes logistiques est de maintenir de hauts niveaux de résilience. Cette recherche évaluera donc la résilience de chaînes logistiques du charbon des industries australienne, sud-africaine et canadienne. Pour ce faire, trois variables seront étudiées: les infrastructures, les catastrophes naturelles et la gouvernance. La comparaison des trois cas à l'étude se fera par un nombre défini d'indicateurs (12 au total) pour chacune des variables étudiées. Les résultats de cette recherche démontrent que la résilience des trois cas à l'étude se ressemble. Cependant, certaines chaînes logistiques détiennent des avantages comparatifs qui améliorent grandement leur résilience et leur compétitivité. Plusieurs sujets de recherche pourraient être utilisés pour compléter cette recherche. L'analyse comparative pourrait être appliquée à d'autres chaînes logistiques pour vérifier la viabilité des résultats. Une analyse semblable pourrait également être entreprise pour le secteur en aval de la chaîne logistique. Finalement, une méthodologie basée sur des interviews pourrait ajouter un regard différent sur les questions abordées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un nombre significatif d’enfants autistes ont une macrocéphalie. Malgré plusieurs études du périmètre crânien en autisme, peu d’études ont été faites sur des adultes. Aussi, les références actuelles en périmètre crânien (PC) adulte datent d’environ 20 ans. Les objectifs de cette étude étaient de construire une échelle de référence du PC adulte, et de comparer les taux de macrocéphalie entre un groupe d’adultes autistes et un groupe d’adultes neurotypiques. Dans cette étude, 221 sujets masculins adultes étaient recrutés de différents milieux afin de déterminer le meilleur modèle prédictif du PC et de construire l’échelle de référence. La hauteur et le poids étaient mesurés pour chaque participant afin de déterminer leur influence sur les dimensions crâniennes. Pour la partie comparative, 30 autistes et 36 sujets neurotypiques, tous adultes, étaient recrutés à partir de la base de données du laboratoire de recherche. Pour l’échelle de référence, les résultats démontraient des corrélations positives entre le PC avec la hauteur et le poids. Après analyse, la corrélation conjointe de la hauteur et du poids sur le PC a été déterminée comme étant le modèle qui offre les résultats les plus significatifs dans la prédiction du PC. Pour la partie comparative, les taux de macrocéphalie atteignaient 10,00% chez les autistes contre 2,56% chez les neurotypiques selon la formule de régression linéaire obtenue du modèle. Cependant le test d’exactitude de Fisher n’a révélé aucune différence significative entre les 2 groupes. Mes résultats suggèrent qu’il est nécessaire de considérer la hauteur et le poids en construisant une référence du PC et que, même en utilisant la nouvelle référence, les taux de macrocéphalie demeurent plus élevés chez les autistes adultes que chez les adultes neurotypiques en dépit de l’absence de différences significatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons mené une étude empirique pour tester les conclusions théoriques d'un article de Foellmi et Oeschlin (2010), selon lesquelles la libéralisation commerciale accroît les inégalités de revenu dans les pays dont les marchés financiers sont affectés par des frictions. On réalise une régression sur des indices synthétiques de la distribution des revenus, de type Gini, de l’ouverture commerciale, en interaction avec un indicateur de disponibilité du crédit. On dispose d’un panel de pays en développement et de pays émergents, comprenant des données annuelles. Il apparaît que les signes de nos variables d’intérêts sont toujours cohérents avec l’analyse de Foellmi et Oeschlin, même après intégration de divers groupes de variables de contrôle et également lorsque les régressions sont effectuées sur des données agrégées par 5 ans. Néanmoins, les paramètres perdent en significativité pour certains groupes de variables de contrôle, certainement du fait de la faible qualité des données et de la taille relativement modeste de l’échantillon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les simulations ont été implémentées avec le programme Java.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire se concentre sur le problème de la régression épistémique. Il s’agit d’un problème très important puisqu’il remet en question la possibilité de la justification. Nous nous intéresserons aux détails de ce problème, ainsi qu’aux réponses qui lui sont offertes. Traditionnellement, deux réponses sont concurrentes : le fondationnalisme et le cohérentisme. La première propose d’arrêter la régression à un fondement, alors que la seconde propose de s’intéresser à la cohérence partagée par les croyances. Toutefois, le but de notre mémoire est de présenter et de défendre une troisième solution : l’infinitisme. Introduite dans les années 1990 par Peter Klein, l’infinitisme est une des plus récentes théories de la justification et, malgré son intérêt, elle est encore très peu défendue. Cette théorie propose de résoudre le problème de la régression en basant la justification des croyances sur des séries infinies et non répétitives de raisons. Cette idée est intéressante, car l’infinitisme renverse le problème d’origine, puisque les régressions infinies sont généralement perçues comme étant un problème pour la connaissance et la source du scepticisme. Notre objectif est de montrer que l’infinitisme est la meilleure solution possible au problème de la régression. Pour ce faire, nous faisons la synthèse des principaux arguments pour l’infinitisme. Cela nous permettra de distinguer trois types d’infinitisme pour ensuite retenir un de ces types, une forme impure d’infinitisme, comme étant le meilleur. Finalement, nous confronterons l’infinitisme à ces critiques pour montrer qu’il s’agit d’une théorie de la justification qui est réellement viable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré la diversité des recherches sur la parentalité adolescente, l'analyse des trajectoires parentales et des facteurs qui peuvent moduler l'effet de cet événement sur la scolarité demeure peu documentée. C'est précisément sur cet aspect que se penche la présente étude. L'objectif général de ce mémoire est de voir dans quelle mesure les différentes trajectoires adoptées par les jeunes parents sont associées à l’obtention des diplômes scolaires. Évidemment, les parents adolescents forment un groupe qui est plus à risque de ne pas avoir obtenu de diplôme secondaire vers 20 ans. Cependant, nous soutenons que la trajectoire parentale est différente pour chaque individu et qu'elle peut modifier la probabilité d’obtention des diplômes secondaire et postsecondaire. Les résultats des analyses de régression sur les données de l'Enquête auprès des jeunes en transition nous montrent que ce n’est pas le simple fait d’être parent qui influe sur la scolarité des jeunes, mais plutôt le type de trajectoires scolaires empruntées par ces derniers. Ainsi, certaines trajectoires parentales moins stables et plus précoces ont plus d’impact sur la non obtention d’un diplôme d’études secondaire, que les trajectoires parentales stables, qu’il s’agisse de monoparentalité ou de famille cohabitante. La précocité est donc un facteur d’influence différencié selon le type de parcours conjugal. De plus, nous observons que cette association entre certaines trajectoires parentales et l’obtention d’un diplôme s’observe également chez les hommes même si le type de trajectoire parentale est globalement moins explicatif que pour les femmes. Finalement, les variables reliées à la performance scolaire à 15 ans médiatisent en partie l’impact des trajectoires parentales sur le statut scolaire à 23 ans, ce qui suggère que l’association peut s’interpréter aussi comme un effet de la scolarité sur la parentalité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, l’idée selon laquelle bon nombre d’individus atteints de psychose peuvent se rétablir sensiblement au fil du temps est de plus en plus répandue. Alors que le milieu médical associe le rétablissement à la rémission symptomatique, les usagers de services en santé mentale le voient plutôt comme un processus où l’absence de symptômes n’est pas une condition sine qua non. Ne s’opposant à ni l’un ni l’autre de ces points de vue, le traitement actuel des psychoses vise le retour à un fonctionnement social approprié. Chez les jeunes atteints d’un premier épisode psychotique, une diminution marquée des symptômes après un traitement pharmacologique se traduit rarement en une amélioration significative du fonctionnement, ce qui justifie la mise en place d’interventions psychosociales. On connait aujourd’hui quelques variables associées au fonctionnement social chez cette population, mais celui-ci a peu été étudié de façon spécifique. De même, on connait mal la manière dont ces jeunes vivent leur rétablissement en tant que processus. Cette thèse porte donc sur le rétablissement et le fonctionnement social de jeunes en début de psychose. La première partie consiste en une introduction aux concepts de rétablissement et de réadaptation, et en une revue de la littérature des interventions psychosociales pouvant favoriser leurs rétablissement et fonctionnement. Plus spécifiquement, nous illustrons comment ces interventions peuvent s’appliquer aux adolescents, clientèle sur laquelle peu de littérature existe actuellement. La deuxième partie présente les résultats d’une étude sur la valeur prédictive de variables sur trois domaines du fonctionnement social de 88 jeunes adultes en début de psychose. Des équations de régression multiple ont révélé qu’un niveau plus élevé de dépression était associé à une vie sociale moins active, qu’un moins bon apprentissage verbal à court terme était associé à un plus bas fonctionnement vocationnel, que le fait d’être de sexe masculin était négativement associé aux habiletés de vie autonome, et qu’un niveau plus élevé de symptômes négatifs prédisait de moins bonnes performances dans les trois sphères du fonctionnement. Finalement, la troisième partie s’intéresse au processus de rétablissement en début de psychose par l’analyse de récits narratifs selon un modèle en cinq stades. Nous avons découvert que l’ensemble de notre échantillon de 47 participants se situaient dans les deux premiers stades de rétablissement lors du premier temps de mesure, et que le fait de se trouver au deuxième stade était associé à de meilleurs scores d’engagement social et de fonctionnement occupationnel, à un meilleur développement narratif, à moins de symptômes négatifs et positifs, et à plus d’années de scolarité. Par ailleurs, l’examen des stades à deux autres temps de mesure a révélé des profils relativement stables sur une période de neuf mois. En somme, les résultats démontrent la nécessité d’évaluer le fonctionnement social de façon plus spécifique et l’importance d’offrir des interventions psychosociales en début de psychose visant notamment le développement des relations et l’intégration scolaire/professionnelle, ou visant à améliorer le faible développement narratif. Cette thèse est, de plus, un premier pas dans l’étude du processus de rétablissement des jeunes atteints de psychose.