592 resultados para Échantillon contrefait
Resumo:
Le présent mémoire explore les liens entre les différents types de capitaux (social, familial, délinquant et individuel) et certains actes déviants, soit la consommation de substances psychotropes et l’implication criminelle violente chez un groupe de décrocheurs scolaires canadiens. Dans un premier temps, il s’agit d’établir la prévalence et les habitudes de consommation de cette population aliénée du système éducatif. De plus, cette étude concerne l’implication criminelle violente des décrocheurs. Plus précisément, il s’agit de déterminer la fréquence des manifestations agressives et les types de violence perpétrés par ces jeunes, ainsi que d’examiner les liens qui se tissent entre la consommation de substances psychotropes et la commission d’actes violents. Ensuite, il est question d’étudier l’impact des différents capitaux (social, familial, délinquant et individuel) sur la consommation de substances psychoactives et l’implication criminelle violente des décrocheurs. En outre, dans une perspective davantage clinique, le dernier objectif aura pour but d’identifier différentes typologies de décrocheurs scolaires. Les analyses s’appuient sur un échantillon de 339 jeunes décrocheurs scolaires de Montréal et Toronto. Les informations amassées par rapport à l’usage de substances psychotropes et la commission d’actes violents concernent les douze mois qui ont précédé la passation du questionnaire. Succinctement, les taux de prévalence de consommation des décrocheurs apparaissent plus importants que ceux de la population estudiantine, leur usage est plus inquiétant de même que l’auto-évaluation de leur dépendance. Les résultats révèlent également une implication criminelle violente importante, surtout chez les garçons et les consommateurs de substances psychotropes. Qui plus est, le capital délinquant semble avoir un impact majeur sur l’usage d’alcool et de drogues de même que sur les manifestations de violence perpétrées par les décrocheurs. Enfin, trois typologies de décrocheurs scolaires ont été identifiées, soit les invisibles, les détachés et les rebelles.
Resumo:
L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Trajectoires développementales de l’IMC durant l’enfance: Une étude longitudinale sur 8 ans. Introduction : L’obésité infantile, origine de nombreux problèmes de santé, représente un grand défi en santé publique. Récemment, l’importance d’étudier l’évolution du surpoids durant l’enfance ainsi que les facteurs de risques précoces pour l’obésité a été reconnue. Les trajectoires développementales d’indice de masse corporelle (IMC) chez les jeunes représentent une approche innovatrice qui nous permet de mieux comprendre cette problématique importante. Objectifs: 1) Identifier des trajectoires développementales distinctes de groupes d’enfants selon leur IMC durant l’enfance, et 2) Explorer les facteurs de risques précoces qui prédisent l’appartenance de l’enfant à la trajectoire d’IMC le plus élevé Hypothèses: 1) On s’attend à retrouver un groupe d’enfants qui suit une trajectoire d’IMC élevée durant l’enfance. 2) On s’attend à ce que certaines caractéristiques de la mère (ex : tabac pendant la grossesse et IMC élevé), soient associées à l’appartenance de l’enfant au groupe ayant la trajectoire «IMC élevé ». Méthodes: Estimation des trajectoires développementales d’IMC d’enfants, dans un échantillon populationnel (n=1957) au Québec (ELDEQ). Les IMC ont été calculés à partir de données fournies par les mères des enfants et recueillis chaque année sur une durée de 8 ans. Des données propres à l’enfant sa mère, ainsi que socioéconomiques, ont étés recueillies. Une régression logistique multinomiale a été utilisée pour distinguer les enfants avec un IMC élevé des autres enfants, selon les facteurs de risques précoces. Les programmes PROC TRAJ (extension de SAS), SPSS (version 16), et SAS (version 9.1.3) ont été utilisés pour ces analyses. Résultats: Trois trajectoires d’IMC ont étés identifiées : IMC « bas-stable » (54,5%), IMC « modéré » (41,0%) et IMC « élevé et en hausse » (4,5%). Le groupe « élevé et en hausse » incluait des enfants pour qui l’IMC à 8 ans dépassait la valeur limite pour l’obésité. Les analyses de régression logistique ont révélé que deux facteurs de risques maternels étaient significativement associés avec la trajectoire “en hausse” par rapport aux deux autres groupes : le tabac durant la grossesse et le surpoids maternel. Conclusions: Des risques d’obésité infantile peuvent êtres identifiés dès la grossesse. Des études d’intervention sont requises pour identifier la possibilité de réduire le risque d’obésité chez l’enfant en ciblant le tabac et le surpoids maternelle durant la grossesse. Mots clés: Indice de masse corporelle (IMC), obésité infantile, trajectoires développementales de groupe, facteurs de risque précoce, étude populationnelle, tabac pendant la grossesse, obésité maternelle.
Resumo:
Nous étudions la recombinaison radiative des porteurs de charges photogénérés dans les puits quantiques InGaN/GaN étroits (2 nm). Nous caractérisons le comportement de la photoluminescence face aux différentes conditions expérimentales telles la température, l'énergie et la puissance de l'excitation et la tension électrique appliquée. Ces mesures montrent que l'émission provient d'états localisés. De plus, les champs électriques, présents nativement dans ces matériaux, n'ont pas une influence dominante sur la recombinaison des porteurs. Nous avons montré que le spectre d'émission se modifie significativement et subitement lorsque la puissance de l'excitation passe sous un certain seuil. L'émission possède donc deux ``phases'' dont nous avons déterminé le diagramme. La phase adoptée dépend à la fois de la puissance, de la température et de la tension électrique appliquée. Nous proposons que la phase à basse puissance soit associée à un état électriquement chargé dans le matériau. Ensuite, nous avons caractérisé la dynamique temporelle de notre échantillon. Le taux de répétition de l'excitation a une influence importante sur la dynamique mesurée. Nous concluons qu'elle ne suit pas une exponentielle étirée comme on le pensait précédemment. Elle est exponentielle à court temps et suit une loi de puissance à grand temps. Ces deux régimes sont lié à un seul et même mécanisme de recombinaison. Nous avons développé un modèle de recombinaison à trois niveaux afin d'expliquer le comportement temporel de la luminescence. Ce modèle suppose l'existence de centres de localisation où les porteurs peuvent se piéger, indépendamment ou non. L'électron peut donc se trouver sur un même centre que le trou ou sur n'importe quel autre centre. En supposant le transfert des porteurs entre centres par saut tunnel on détermine, en fonction de la distribution spatiale des centres, la dynamique de recombinaison. Ce modèle indique que la recombinaison dans les puits InGaN/GaN minces est liée à des agglomérats de centre de localisation.
Resumo:
La thèse délaisse l’étude des biais, des erreurs et des influences externes qui modulent les décisions de justice et formule l’hypothèse que les individus, confrontés à un dilemme normatif (quelle serait la juste peine?), manifestent un souci de justice qu’il est pertinent d’analyser en lui-même. Les résultats de cette thèse indiquent qu’une proportion appréciable des choix et des jugements des citoyens et des acteurs judiciaires interrogés témoignent, en raison de leur cohérence interne et de leur modération, d’un souci manifeste de justice. Les données de la thèse s’appuient sur un sondage sentenciel dans lequel on demandait à des répondants du public (n=297), mais aussi à un échantillon d’acteurs judiciaires (n=235), de prendre des décisions de détermination pénale dans trois histoires de cas bien détaillées. La thèse s’intéresse à la détermination de la juste peine, laquelle incorpore trois prises de décision distinctes. Le premier chapitre de la thèse s’attarde à la qualité des échelles individuelles de sévérité des peines qui peuvent être infligées pour sanctionner un délinquant reconnu coupable d’actes criminels. Les résultats indiquent que les citoyens, tous comme les acteurs judiciaires, n’utilisent pas la même métrique pour statuer sur la sévérité des peines, mais que certains d’entre eux, font usage d’une métrique pénale plus cohérente et plus raisonnable que d’autres. Un test décisif pour jauger de la valeur d’une métrique est son aptitude à établir des équivalences pénales entre les peines de prison, de probation, de travaux communautaires et d’amendes. Le deuxième chapitre s’attarde à la qualité des choix sentenciels des citoyens et des acteurs judiciaires. Deux critères sont utilisés pour distinguer les sentences les plus justes : 1) le critère de proportionnalité ou de cohérence interne (les sentences données sont-elles toujours proportionnelles à la gravité de l’infraction commise ?); 2) le critère de modération ou de cohérence externe (la sentence donnée peut-elle rallier le plus grand nombre de points de vue?). Les deux critères sont importants parce qu’ils contribuent tous deux à réduire la marge d’incertitude du dilemme sentenciel. Le troisième chapitre prend acte que toute sentence fera possiblement l’objet d’un aménagement subséquent. Les formes les plus manifestes d’aménagement pénal sont régies par l’octroi d’une libération conditionnelle qui écourte la durée de peine qui sera purgée en prison. Certains acteurs judiciaires choisiront de tenir compte de cette libération anticipée en gonflant leur sentence, alors que d’autres se refuseront à le faire. Le dernier chapitre s’attarde aux raisons qui motivent leurs choix.
Resumo:
L’utilisation des services de santé est au centre de l’organisation des soins. La compréhension des processus qui déterminent cette utilisation est essentielle pour agir sur le système de santé et faire en sorte qu’il réponde mieux aux besoins de la population. L’objectif de cette thèse est de comprendre le phénomène complexe qu’est l’utilisation des services de santé en s’intéressant à la pratique des médecins omnipraticiens. En nous appuyant sur le cadre théorique de Donabedian, nous décomposons les déterminants de l’utilisation des services de santé en trois niveaux : le niveau individuel, le niveau organisationnel, et le niveau environnemental. Pour tenir compte de la complexité des phénomènes de cette étude nous proposons de nous appuyer sur l’approche configurationnelle. Notre question de recherche est la suivante : dans quelle mesure le mode d’exercice des omnipraticiens influence-t-il la prestation des services et comment l’environnement géographique et la patientèle modulent-ils cette relation ? Nous avons utilisé des bases de données jumelées du Collège des médecins du Québec, de la Régie d’assurance maladie du Québec et de la banque de données iCLSC. Notre échantillon est constitué des médecins omnipraticiens de l’année 2002, ayant satisfait aux critères d’inclusion, ce qui représente près de 70% de la population totale. Des analyses de correspondances multiples et des classifications ascendantes hiérarchiques ont été utilisées pour réaliser la taxonomie des modes d’exercice et des contextes géographiques. Nous avons construit des indicateurs d’utilisation des services de santé pour apprécier la continuité, la globalité, l’accessibilité et la productivité. Ces indicateurs ont été validés en les comparant à ceux d’une enquête populationnelle. Nous présentons tout d’abord les modes d’exercice des médecins qui sont au nombre de sept. Deux modes d’exercice à lieu unique ont émergé : le mode d’exercice en cabinet privé d'une part, caractérisé par des niveaux de continuité et productivité élevés, le mode d’exercice en CLSC d'autre part présentant un niveau de productivité faible et des niveaux de globalité et d'accessibilité légèrement au-dessus de la moyenne. Dans les cinq autres modes d’exercice, les médecins exercent leur pratique dans une configuration de lieux. Deux modes d’exercice multi-institutionnel réunissent des médecins qui partagent leur temps entre les urgences, les centres hospitaliers et le cabinet privé ou le CLSC. Les médecins de ces deux groupes présentent des niveaux d’accessibilité et de productivité très élevés. Le mode d’exercice le moins actif réunit des médecins travaillant en cabinet privé et en CHLSD. Leur niveau d’activité est inférieur à la moyenne. Ils sont caractérisés par un niveau de continuité très élevé. Le mode d’exercice ambulatoire regroupe des médecins qui partagent leur pratique entre le CLSC, le cabinet privé et le CHLSD. Ces médecins présentent des résultats faibles sur tous les indicateurs. Finalement le mode d’exercice hospitaliste réunit des médecins dont la majorité de la pratique s’exerce en milieu hospitalier avec une petite composante en cabinet privé. Dans ce mode d’exercice tous les indicateurs sont faibles. Les analyses ont mis en évidence quatre groupes de territoires de CSSS : les ruraux, les semi-urbains, les urbains et les métropolitains. La prévalence des modes d’exercice varie selon les contextes. En milieu rural, le multi-institutionnel attire près d’un tiers des médecins. En milieu semi-urbain, les médecins se retrouvent de façon plus prédominante dans les modes d’exercice ayant une composante CLSC. En milieu urbain, les modes d’exercice ayant une composante cabinet privé attirent plus de médecins. En milieu métropolitain, les modes d’exercice moins actif et hospitaliste attirent près de 40% des médecins. Les omnipraticiens se répartissent presque également dans les autres modes d’exercice. Les niveaux des indicateurs varient en fonction de l’environnement géographique. Ainsi l’accessibilité augmente avec le niveau de ruralité. De façon inverse, la productivité augmente avec le niveau d’urbanité. La continuité des soins est plus élevée en régions métropolitaines et rurales. La globalité varie peu d’un contexte à l’autre. Pour pallier à la carence de l’analyse partielle de l’organisation de la pratique des médecins dans la littérature, nous avons créé le concept de mode d’exercice comme la configuration de lieux professionnels de pratique propre à chaque médecin. A notre connaissance, il n’existe pas dans la littérature, d’étude qui ait analysé simultanément quatre indicateurs de l’utilisation des services pour évaluer la prestation des services médicaux, comme nous l’avons fait. Les résultats de nos analyses montrent qu’il existe une différence dans la prestation des services selon le mode d’exercice. Certains des résultats trouvés sont documentés dans la littérature et plus particulièrement quand il s’agit de mode d’exercice à lieu unique. La continuité et la globalité des soins semblent évoluer dans le même sens. De même, la productivité et l’accessibilité sont corrélées positivement. Cependant il existe une tension, entre les premiers indicateurs et les seconds. Seuls les modes d’exercice à lieu unique déjouent l’arbitrage entre les indicateurs, énoncé dans l’état des connaissances. Aucun mode d’exercice ne présente de niveaux élevés pour les quatre indicateurs. Il est donc nécessaire de travailler sur des combinaisons de modes d’exercice, sur des territoires, afin d’offrir à la population les services nécessaires pour l’atteinte concomitante des quatre objectifs de prestation des services. Les modes d’exercice émergents (qui attirent les jeunes médecins) et les modes d’exercice en voie de disparition (où la prévalence des médecins les plus âgés est la plus grande) sont préoccupants. A noter que les modes d’exercice amenés à disparaître répondent mieux aux besoins de santé de la population que les modes d’exercice émergents, au regard de tous nos indicateurs. En conclusion, cette thèse présente trois contributions théoriques et trois contributions méthodologiques. Les implications pour les recherches futures et la décision indiquent que, si aucune mesure n’est mise en place pour renverser la tendance, le Québec risque de vivre des pénuries dans la prestation des services en termes de continuité, globalité et accessibilité.
Resumo:
Depuis plus de 50 ans, les chercheurs s’intéressent à la résistance au changement. Or, malgré plusieurs années de recherche, on ne sait toujours pas exactement quelles variables peuvent prédire les comportements de résistance et encore moins ceux de soutien. La présente thèse vise à pallier cette lacune en identifiant des variables pouvant expliquer à la fois les comportements de soutien et de résistance lors d’un changement organisationnel majeur. Le modèle des phases de préoccupations (Bareil 2004a) s’avère intéressant à cet effet puisqu’il intègre bien les savoirs actuels et s’adapte à différents changements. L’objectif principal de cette thèse est donc de vérifier jusqu’à quel point les comportements de soutien et de résistance peuvent être prédits par les phases de préoccupations, en tenant compte de l’engagement affectif envers le changement comme variable médiatrice et du rôle des acteurs et de l’avancement de la mise en œuvre comme variables modératrices. Pour ce faire, une étude a été menée auprès d’enseignants, de professionnels et de directeurs d’une Commission scolaire québécoise ayant implanté une réforme majeure provoquant des préoccupations d’intensité variée et des comportements divers, allant de la résistance au soutien. Les analyses acheminatoires effectuées auprès de deux échantillons indépendants (n=464 et n=171) indiquent que les premières phases du modèle (centrées sur le destinataire, l’organisation et le changement) sont liées positivement aux comportements de résistance et négativement à ceux de soutien. À l’inverse, les dernières phases (centrées sur l’expérimentation, la collaboration et l’amélioration continue) sont liées négativement aux comportements de résistance et positivement à ceux de soutien. Ainsi, plus on avance dans la séquence des phases de préoccupations, plus les comportements de soutien augmentent et ceux de résistance diminuent. Également, l’engagement affectif envers le changement agit à titre de variable médiatrice et permet d’expliquer davantage de variance des comportements de soutien et de résistance. De plus, les analyses de régression indiquent que les phases de préoccupations expliquent davantage de variance des comportements de soutien des agents de changement, alors qu’elles expliquent plus de variance des comportements de résistance des destinataires. On constate aussi que c’est au début de la mise en œuvre que les phases de préoccupations expliquent le plus de variance des comportements de soutien et de résistance. Finalement, un troisième échantillon (n=143) permet de suivre l’évolution des participants ayant répondu deux fois au questionnaire. Les tests t ne rapportent aucune différence significative entre les deux temps de mesure et ce, autant pour les phases de préoccupations que pour les comportements de soutien et de résistance. On constate que lorsque les phases de préoccupations n’évoluent pas, les comportements de soutien ou de résistance demeurent les mêmes. En somme, ces résultats indiquent qu’il est possible de prédire à la fois les comportements de soutien et de résistance avec les phases de préoccupations. En outre, on sait maintenant à quel moment et avec quel type d’acteurs le modèle des phases de préoccupations s’avère le plus utile. Afin de généraliser ces résultats, il serait pertinent de reproduire cette recherche dans une autre organisation qui implante un changement majeur.
Resumo:
Dans cette étude, nous analysons les principaux problèmes que nous retrouvons lorsque nous utilisons les entrevues sociolinguistiques comme méthode d’analyse pour obtenir des échantillons de l’actuation linguistique authentiques. Cette problématique provient de la nature même de la méthodologie employée en fonction du paradoxe de l’observateur (Labov 1972) et elle impose la nécessité de réfléchir sur les avantages et les désavantages inhérents à l’instrument de recherche utilisé. En ayant ce propos, l’objectif principal qu’on poursuit est celui de donner réponse à une question que surgit lorsqu’on parle de l’entrevue sociolinguistique : Comment pourrait-on obtenir des échantillons de parole de style spontané dans l’observation systématique de l’entrevue? Pour essayer de répondre à cette problématique, on a revu et analysé un échantillon de vingt entrevues semi dirigées (25 heures d’enregistrement) qui font partie du Corpus Oral et Sonore de l’Espagnol Rural (COSER). L’étude des entrevues sociolinguistiques comme méthode scientifique montre, comme principal résultat, que parmi les stratégies utilisées pour essayer de réduire les effets du paradoxe de l’observateur on devrait inclure celle de la tactique de faire parler l’informateur à propos d’un objet qui ait une particulière valeur affective pour lui, pour générer ainsi une déstructuration du schéma formel de l’entrevue et une situation émotionnelle de sorte que l’émotivité neutralise sa conscience linguistique et son discours. De cette façon, l’attention du parlant se concentrera dans l’objet même plutôt que dans sa parole formelle et, de cette manière, on obtiendrait des échantillons de style plus spontané et colloquial.
Resumo:
La forte prévalence des troubles des conduites alimentaires (TCA) chez les jeunes femmes et les faibles taux de rémission suite à un traitement ont encouragé les chercheurs à mieux comprendre les facteurs impliqués dans ce trouble mental. L’un des premiers modèles à mettre l’emphase sur des traits de personnalité associés au développement d’un TCA a été proposé par Hilde Bruch (1962, 1973, 1978) et a toujours une grande influence dans la recherche actuelle. Le modèle de Bruch inclue trois facteurs, soit l’insatisfaction corporelle, l’inefficacité et la conscience intéroceptive. Le but de cette thèse est d’apporter un support empirique au modèle de Bruch. En se basant sur une revue extensive des écrits scientifiques, cette thèse vise aussi à déterminer si deux facteurs reliés, soit l’alexithymie et le sentiment d’efficacité personnelle face à l’adoption de conduites alimentaires saines, améliorent la précision du modèle dans la prédiction de symptômes de TCA. Pour répondre empiriquement à cette question, il était d’abord nécessaire de disposer d’un questionnaire évaluant le sentiment d’efficacité personnelle en lien avec les conduites alimentaires qui peut être utilisé dans tout le spectre de présentation des TCA. Ainsi, le Eating Disorder Self-Efficacy Questionnaire (EDRSQ) a été adapté en français et ses propriétés psychométriques ont été évaluées. Une analyse factorielle confirmatoire a révélé une structure bi-factorielle, soit le sentiment d’efficacité personnelle en lien avec l’insatisfaction corporelle et avec l’adoption d’une alimentation normative. Chaque échelle a démontré une bonne fiabilité ainsi qu’une validité de construit cohérente avec la théorie. Par la suite, la capacité des facteurs proposés par Bruch à prédire les symptômes de TCA a été évaluée et comparée à des adaptations du modèle découlant des écrits. Au total, 203 étudiantes de premier cycle universitaire ont complété les versions validées en français du Eating Disorder Inventory 2, du Eating Attitudes Test, et du Toronto Alexithymia Scale en plus du EDRSQ. Les résultats montrent que le modèle de Bruch explique 46% de la variance des symptômes de TCA. Alors que l’insatisfaction corporelle et la conscience intéroceptive démontrent chacun une contribution importante dans la prédiction des symptômes de TCA, il a été démontré que l’inefficacité présente seulement une contribution spécifique négligeable. Le modèle de Bruch est amélioré par la substitution de l’inefficacité par le sentiment d’efficacité personnelle tel que mesuré par le EDRSQ; le modèle explique alors 64% de la variance des symptômes de TCA. Finalement, cette étude démontre que l’alexithymie n’a pas de contribution spécifique dans la prédiction des symptômes de TCA. Ainsi, la combinaison d’une faible conscience intéroceptive, de l’insatisfaction corporelle et d’un faible sentiment d’efficacité personnelle en lien avec les conduites alimentaires est fortement associée aux symptômes de TCA dans un échantillon non-clinique de jeunes femmes. Finalement, les implications conceptuelles et cliniques de ces résultats sont discutées.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-delà de cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles.
Resumo:
La polyconsommation d’alcool et de cannabis est rapportée par un grand nombre de jeunes adultes canadiens (Flight, 2007). Les recherches épidémiologiques suggèrent que le statut de polyconsommateur est associé à certains comportements à risque, dont la consommation excessive d’alcool et la conduite d’un véhicule automobile sous l’influence de l’alcool (Jones et al. 2001; Mohler-Kuo, et al. 2003; Shillington & Clapp, 2006). Les études qui soutiennent le risque accru de comportements à risque pour les polyconsommateurs se focalisent sur l’effet des substances. En rupture avec cette approche, ce mémoire présente une étude situationnelle de la polyconsommation en examinant l’effet du statut de polyconsommateur et, pour ceux-ci l’effet de la consommation simultanée d’alcool et de cannabis, en situant l’action dans son contexte de survenu et en examinant la contribution du contexte. La probabilité d’avoir conduit une voiture sous l’influence de l’alcool et d’avoir consommé excessivement de l’alcool sera examinée auprès d’étudiants universitaires. La contribution respective des substances, des situations et de l’expérience de la vie universitaire sera examinée. La méthodologie employée repose sur la construction de modèles de régression logistique multiniveaux, à la fois chez l’ensemble des buveurs (10 747 occasions, nichées dans 4396 buveurs) et dans le sous-échantillon des polyconsommateurs (2311 occasions de consommation d’alcool, nichées dans 880 polyconsommateurs). Les données sont issues de l’Enquête sur les campus canadiens (2004), menée auprès d’un échantillon représentatif de 6282 étudiants issus de 40 universités. Le statut de polyconsommateur est associé à la consommation excessive d’alcool, mais pas à la conduite d’une voiture suite à la consommation. Cependant, la consommation simultanée d’alcool et de cannabis n’est pas associée à un risque plus élevé de consommer excessivement de l’alcool, et est négativement associée à la conduite d’une voiture après la consommation. Plusieurs caractéristiques situationnelles sont associées aux deux comportements à l’étude et diminuent la force d’association entre ces comportements et le statut de polyconsommateur.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation