980 resultados para diffusion des innovations
Resumo:
The problem of social diffusion has animated sociological thinking on topics ranging from the spread of an idea, an innovation or a disease, to the foundations of collective behavior and political polarization. While network diffusion has been a productive metaphor, the reality of diffusion processes is often muddier. Ideas and innovations diffuse differently from diseases, but, with a few exceptions, the diffusion of ideas and innovations has been modeled under the same assumptions as the diffusion of disease. In this dissertation, I develop two new diffusion models for "socially meaningful" contagions that address two of the most significant problems with current diffusion models: (1) that contagions can only spread along observed ties, and (2) that contagions do not change as they spread between people. I augment insights from these statistical and simulation models with an analysis of an empirical case of diffusion - the use of enterprise collaboration software in a large technology company. I focus the empirical study on when people abandon innovations, a crucial, and understudied aspect of the diffusion of innovations. Using timestamped posts, I analyze when people abandon software to a high degree of detail.
To address the first problem, I suggest a latent space diffusion model. Rather than treating ties as stable conduits for information, the latent space diffusion model treats ties as random draws from an underlying social space, and simulates diffusion over the social space. Theoretically, the social space model integrates both actor ties and attributes simultaneously in a single social plane, while incorporating schemas into diffusion processes gives an explicit form to the reciprocal influences that cognition and social environment have on each other. Practically, the latent space diffusion model produces statistically consistent diffusion estimates where using the network alone does not, and the diffusion with schemas model shows that introducing some cognitive processing into diffusion processes changes the rate and ultimate distribution of the spreading information. To address the second problem, I suggest a diffusion model with schemas. Rather than treating information as though it is spread without changes, the schema diffusion model allows people to modify information they receive to fit an underlying mental model of the information before they pass the information to others. Combining the latent space models with a schema notion for actors improves our models for social diffusion both theoretically and practically.
The empirical case study focuses on how the changing value of an innovation, introduced by the innovations' network externalities, influences when people abandon the innovation. In it, I find that people are least likely to abandon an innovation when other people in their neighborhood currently use the software as well. The effect is particularly pronounced for supervisors' current use and number of supervisory team members who currently use the software. This case study not only points to an important process in the diffusion of innovation, but also suggests a new approach -- computerized collaboration systems -- to collecting and analyzing data on organizational processes.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne et l'Université de Montréal. Composition du jury : M. Laurent Cugny (Université Paris-Sorbonne) ; M. Michel Duchesneau (Université de Montréal) ; M. Philippe Gumplowicz (Université d'Evry-Val d'Essonne) ; Mme Barbara Kelly (Keele University - Royal Northern College of Music) ; M. François de Médicis (Université de Montréal) ; M. Christopher Moore (Université d'Ottawa)
Resumo:
La mise en œuvre d’activités de prévention de la consommation de substances psychoactives (SPA) (tabac, alcool et cannabis) en milieu scolaire est une stratégie couramment utilisée pour rejoindre un grand nombre de jeunes. Ces activités s’inspirent, soit de programmes existant, soit d’innovations dictées par le contexte d’implantation ou l’existence de données de recherche. Dans un cas comme dans l’autre, l’évaluation de ces programmes représente la meilleure voie pour mesurer leur efficacité et/ou connaître comment ceux-ci sont implantés. C’est cet impératif qui a motivé une commission scolaire du Québec a recommandé l’évaluation de l’Intervention en Réseau (IR), un programme développé en vue de retarder l’âge d’initiation et de réduire la consommation problématique de SPA chez les élèves. Ce programme adopte une approche novatrice avec pour principal animateur un intervenant pivot (IP) qui assure le suivi des élèves de la 5e année du primaire jusqu’en 3e secondaire. Inspiré des modèles en prévention de la santé et de l’Approche École en santé (AES), le rôle de l’IP ici se démarque de ceux-ci. Certes, il est l’interface entre les différents acteurs impliqués et les élèves mais dans le cadre du programme IR, l’IP est intégré dans les écoles primaires et secondaires qu’il dessert. C’est cet intervenant qui assure la mobilisation des autres acteurs pour la mise en œuvre des activités. Cette thèse vise à rendre compte de ce processus d’évaluation ainsi que des résultats obtenus. L’approche d’évaluation en est une de type participatif et collaboratif avec des données quantitatives et qualitatives recueillies par le biais de questionnaires, d’entrevues, de groupes de discussion, d’un journal de bord et de notes de réunions. Les données ont été analysées dans le cadre de trois articles dont le premier concerne l’étude d’évaluabilité (ÉÉ) du programme. Les participants de cette ÉÉ sont des acteurs-clés du programme (N=13) rencontrés en entrevues. Une analyse documentaire (rapports et journal de bord) a également été effectuée. Cette ÉÉ a permis de clarifier les intentions des initiateurs du programme et les objectifs poursuivis par ces derniers. Elle a également permis de rendre la théorie du programme plus explicite et de développer le modèle logique, deux éléments qui ont facilité les opérations d’évaluation qui ont suivi. Le deuxième article porte sur l’évaluation des processus en utilisant la théorie de l’acteur-réseau (TAR) à travers ses quatre moments du processus de traduction des innovations (la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés), l’analyse des controverses et du rôle des acteurs humains et non-humains. Après l’analyse des données obtenues par entrevues auprès de 19 informateurs-clés, les résultats montrent que les phases d’implantation du programme passent effectivement par les quatre moments de la TAR, que la gestion des controverses par la négociation et le soutien était nécessaire pour la mobilisation de certains acteurs humains. Cette évaluation des processus a également permis de mettre en évidence le rôle des acteurs non-humains dans le processus d’implantation du programme. Le dernier article concerne une évaluation combinée des effets (volet quantitatif) et des processus (volet qualitatif) du programme. Pour le volet quantitatif, un devis quasi-expérimental a été adopté et les données ont été colligées de façon longitudinale par questionnaires auprès de 901 élèves de 5e et 6e année du primaire et leurs enseignants de 2010 à 2014. L’analyse des données ont montré que le programme n’a pas eu d’effets sur l’accessibilité et les risques perçus, l’usage problématique d’alcool et la polyconsommation (alcool et cannabis) chez les participants. Par contre, les résultats suggèrent que le programme pourrait favoriser la réduction du niveau de consommation et retarder l’âge d’initiation à l’alcool et au cannabis. Ils suggèrent également un effet potentiellement positif du programme sur l’intoxication à l’alcool chez les élèves. Quant au volet qualitatif, il a été réalisé à l’aide d’entrevues avec les intervenants (N=17), de groupes de discussion avec des élèves du secondaire (N=10) et d’une analyse documentaire. Les résultats montrent que le programme bénéficie d’un préjugé favorable de la part des différents acteurs ayant participé à l’évaluation et est bien acceptée par ces derniers. Cependant, le roulement fréquent de personnel et le grand nombre d’écoles à suivre peuvent constituer des obstacles à la bonne marche du programme. En revanche, le leadership et le soutien des directions d’écoles, la collaboration des enseignants, les qualités de l’IP et la flexibilité de la mise en œuvre sont identifiés comme des éléments ayant contribué au succès du programme. Les résultats et leur implication pour les programmes et l’évaluation sont discutés. Enfin, un plan de transfert des connaissances issues de la recherche évaluative est proposé.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Les matériaux mésoporeux à base de silice sont des plateformes polyvalentes qui offrent une réponse aux besoins de domaines variés comme l’environnement, la santé et les énergies. La fonctionnalisation avec des groupements organiques en fait des matériaux hybrides qu’il est aisé d’orienter vers une application spécifique. Ainsi, afin de fournir une alternative aux procédés industriels, dommageables pour l’environnement actuellement utilisés pour l’extraction et la purification des terres rares, à savoir l’extraction liquide-liquide (ELL) majoritairement, les silices mésoporeuses ont été sollicitées à titre d’adsorbant dans l’extraction sur phase solide. Cette dernière, en opposition à l’ELL, présente de nombreux avantages dont, la suppression des solvants organiques, le contrôle de la sélectivité envers et parmi le groupe des éléments de terres rares (ÉTR) à travers l’ancrage du ligand sur un support solide et la possibilité de réutiliser plusieurs fois l’adsorbant. Les ÉTR sont des métaux qui participent à la transition vers des technologies moins coûteuses en énergie, il est donc primordial de rendre leurs procédés d’extraction plus verts. Dans le cadre de ce travail, différents types de silices ordonnées mésoporeuses, MCM-41, SBA-15 et SBA-16, ont été synthétisées, fonctionnalisées avec un ligand approprié, et leurs comportements vis à vis de ces éléments, comparés. Ces matériaux ont de nombreux points communs mais certaines caractéristiques les différencient néanmoins : la taille et la géométrie des pores, la connexion entre les pores, l’épaisseur des parois, l’accessibilité aux pores ou encore la diffusion des liquides ou gaz dans la matrice. C’est pourquoi, le but de cette étude est d’élucider l’impact de ces diverses propriétés sur l’adsorption sélective des ÉTR en condition statique et dynamique.
Resumo:
Les espaces verts offrent de nombreux bienfaits aux populations urbaines, mais nécessitent souvent d’être gérés pour répondre aux besoins humains ainsi qu’aux contraintes du milieu. Dès les années 1950, cette gestion a été assurée par des pratiques horticoles intensives. Toutefois, à partir de 1970, les conséquences environnementales de ce mode de gestion chimique et mécanique ont poussé des gestionnaires à réviser leurs pratiques et s’engager dans la gestion durable. En France, l’adoption de la gestion durable par les collectivités est restée hétérogène et des pratiques dommageables pour l’environnement ont persisté jusqu’à aujourd’hui. Cependant, l’interdiction au 1er janvier 2017 pour les collectivités d’utiliser des produits phytosanitaires en zone non-agricole les poussent à réviser en profondeur leur gestion des espaces verts et se tourner vers des pratiques durables. Dans ce contexte, l’objectif de l’essai a été de dégager des recommandations pour la mise en œuvre effective d’une gestion durable des espaces verts en Bourgogne. Les enjeux identifiés dans cette gestion étaient la biodiversité, l’eau, le sol, la gestion et le paysage. Une enquête par questionnaire a permis de constater que les gestionnaires d’espaces verts étaient intéressés par la gestion durable et avaient déjà adopté des pratiques pour répondre aux enjeux de gestion identifiés. Toutefois, l’analyse des réponses a également révélé que le traitement des enjeux était inégal et qu’un important frein technique était rencontré. Ces résultats ont montré l’importance de diffuser des pratiques et d’apporter un support technique. Des études de cas auprès de gestionnaires bourguignons ont permis d’observer leurs pratiques. Une fois les pratiques analysées au regard des enjeux identifiés, elles ont permis de dégager des recommandations globales pour une gestion durable des espaces verts. Celles-ci sont au nombre de 45 et répondent à 15 problématiques rencontrées par les gestionnaires, telles que le désherbage, la fertilisation et le choix des végétaux. Finalement, afin de faciliter la diffusion des recommandations et leur application par les gestionnaires d’espaces verts, il a été décidé de les synthétiser sous forme de fiches. Celles-ci concernent les mêmes problématiques, mais sont organisées par type de formation végétale, afin de se rapprocher du travail de terrain des gestionnaires. L’aspect technique est également renforcé. Ces fiches synthétiques sont destinées à être diffusées aux communes par la Fredon Bourgogne en accompagnement des plans de gestion différenciée qu’elle développe.
Resumo:
La nanomédecine est porteuse de nombreuses promesses et bienfaits pour l’humanité. Or, l’opposition massive à l’introduction des organismes génétiquement modifiés (OGM) a montré que les promesses attendues des innovations technologiques ne sont pas garantes de leur acceptabilité. L’absence d’une démarche axée sur les impacts possibles, l’acceptation et l’acceptabilité de l’utilisation des nanotechnologies en médecine pourrait toutefois conduire à un manque d’adéquation entre les applications développées et les besoins et valeurs des acteurs sociaux. À partir d’un cadre conceptuel interdisciplinaire et du contexte clinique de la prévention et du traitement des plaies de pression chez les personnes diabétiques, les variables de perception d’impacts, d’acceptation et d’acceptabilité ont été opérationnalisées et étudiées afin d’explorer la relation entre ces variables, mais surtout de mieux comprendre l’influence des types de profil des répondants sur ces variables. L’exploration des impacts perçus, mobilisés et pondérés sur un ensemble d’enjeux a permis d’établir un premier portrait de l’acceptabilité de dispositifs à base de nanotubes de carbones utilisés dans le contexte clinique de soins des plaies de pression. Une approche descriptive-exploratoire fondée sur un devis mixte avec triangulation séquentielle des données a été employée. Un questionnaire a été développé et prétesté à l’aide d’entrevues cognitives (n = 35). Les données ont ensuite été recueillies en deux phases, d’abord par le biais d’un questionnaire en ligne (n = 270), puis par des entrevues individuelles semi-dirigées (n = 23). L’échantillon final se compose de trois types de profil, soit des professionnels de la santé, des personnes diabétiques et non-diabétiques. L’opérationnalisation du cadre de référence a permis de distinguer les dimensions individuelle/ sociale des concepts d’acceptation et d’acceptabilité. Plus encore, l’importance des types de profil dans l’étude de ces variables complémentaires à la perception des impacts a été démontrée, notamment par la mise en lumière du paradoxe des professionnels de la santé dans le jugement d’acceptabilité. Ces distinctions invitent à dépasser les approches traditionnelles d’acceptation technologique en axant davantage sur les impacts perçus et valorisés/priorisés dans la formation du jugement d’acceptabilité. Le développement d’applications en nanomédecine bénéficierait d’une meilleure compréhension de la formation du jugement d'acceptabilité et l'influence du type de profil sur celui-ci.
Resumo:
La prolifération des matières résiduelles est l'un des problèmes environnementaux que rencontre le Québec. Ainsi beaucoup d’initiatives et de politiques ont vu le jour pour faire face a la problématique de matières résiduelles. Cependant, toutes ces actions n’ont pas permis aux municipalités, ni aux populations d’être à l’abri de la prolifération des matières résiduelles dans la province du Québec. Ainsi, il est difficile d’atteindre les objectifs fixés à chaque période. Dans un esprit d’agir ensemble pour diminuer les déchets, le Gouvernement confie aux municipalités la responsabilité d’élaborer leur propre plan de gestion des matières résiduelles en tenant compte de leur contexte à savoir : mode de gestion et de traitement, le type de matières récupérés et leur outil de planification. Ce dernier permet aux populations d’avoir des informations sur la date, l’horaire et le type de matières collectées. Pour améliorer la diffusion des informations de collecte dans les municipalités, nous avons choisi de réaliser un prototype de système d’information géographique web (SIG web) pour mieux planifier la collecte des matières résiduelles. Notre étude consiste a concevoir un modèle conceptuel de données de norme québécoise portant sur la collecte des matières résiduelles, spécifiquement de créer une base de données spatialisée, et intégrer les données de collecte des matières résiduelles sur un SIG web.
Resumo:
Créé en 2006, le Fonds vert du Québec a été établi dans le but de financer les mesures et les activités favorisant le développement durable. Au fil des années, ce fonds a permis d’amasser d’importantes sommes, notamment grâce aux redevances, à la tarification ou à la compensation. Les changements climatiques ont amené le Ministère du Développement durable, de l’Environnement et de la Lutte contre les changements climatiques à consacrer la majeure partie des revenus du Fonds vert pour cet enjeu. Avec un bilan positif dans les revenus, on peut penser que le Fonds vert a aidé à réaliser les objectifs du Québec en matière de changements climatiques. Or, dans les dernières années, plusieurs parties prenantes, dont le Commissaire au développement durable, ont relevé des problèmes importants dans la gestion du fonds. Ces problèmes se situent notamment dans la gestion stratégique, dans la gestion des programmes et des projets ainsi que dans la diffusion de l’information. La gouvernance actuelle du Fonds vert du Québec n’a donc pas apporté les résultats souhaités en matière d’adaptation aux changements climatiques et en réduction des émissions de gaz à effet de serre. L’objectif de l’essai est d’analyser le cadre de gestion des fonds verts existants du Canada et des États-Unis afin de relever des solutions qui permettraient d’améliorer le Fonds vert du Québec en matière de changements climatiques au Québec. Pour atteindre cet objectif, divers fonds verts existants partageant des traits similaires à celui du Québec ont été analysés. Le choix s’est arrêté au Fonds municipal vert, au Climate Change and Emissions Management Fund et au California Climate Investments. Ces derniers ont été analysés en fonction d’un tableau comparatif comprenant des critères comme l’établissement d’objectifs visant l’atteinte de résultats, l’élaboration d’un processus de sélection de projets, la mise en œuvre d’un mécanisme de surveillance ou de suivi et la diffusion des informations relatives aux programmes. L’analyse comparative a permis de constater quelques tendances dans la gestion des fonds verts. D’abord, les fonds verts ont adopté leur propre approche dans la formulation des objectifs du fonds. Le Fonds municipal vert se démarque en établissant des objectifs de nature budgétaire et stratégique. De plus, ces objectifs sont énoncés de façon spécifique, mesurable, appropriée, réaliste et délimitée dans le temps. Les fonds verts analysés présentent également un processus de sélection de projets plus élaborés que celui du Fonds vert du Québec, en ce qu’il prévoit des critères d’admissibilités bien définis, une multitude d’étapes de sélection et la participation de plusieurs acteurs, notamment des acteurs externes. Le Climate Change and Emissions Management Fund se distingue des autres fonds, en ce qu’il introduit un comité, le Fairness monitor, pour surveiller le processus de sélection. Pour tous les fonds verts de cette analyse, le mécanisme de surveillance ou de suivi se traduit par des livrables, comme des rapports annuels, exécutés par des auditeurs indépendants. Enfin, les fonds verts utilisent divers moyens de communication pour faciliter la compréhension du fonctionnement du fonds en question. Le Fonds municipal vert offre des activités, telles que du réseautage, du mentorat, des conférences afin d’encourager le partage des connaissances et l’apprentissage par les pairs. Le California Climate Investments a mis sur pied une plateforme sur Internet qui permet de voir en continu l’évolution et les résultats des projets financés. Aux termes de cette analyse, quatre recommandations ont été formulées en fonction des éléments de gestion qui sont le plus ressortis des trois fonds verts.
Resumo:
National audience
Resumo:
National audience
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne et l'Université de Montréal. Composition du jury : M. Laurent Cugny (Université Paris-Sorbonne) ; M. Michel Duchesneau (Université de Montréal) ; M. Philippe Gumplowicz (Université d'Evry-Val d'Essonne) ; Mme Barbara Kelly (Keele University - Royal Northern College of Music) ; M. François de Médicis (Université de Montréal) ; M. Christopher Moore (Université d'Ottawa)
Resumo:
La mise en œuvre d’activités de prévention de la consommation de substances psychoactives (SPA) (tabac, alcool et cannabis) en milieu scolaire est une stratégie couramment utilisée pour rejoindre un grand nombre de jeunes. Ces activités s’inspirent, soit de programmes existant, soit d’innovations dictées par le contexte d’implantation ou l’existence de données de recherche. Dans un cas comme dans l’autre, l’évaluation de ces programmes représente la meilleure voie pour mesurer leur efficacité et/ou connaître comment ceux-ci sont implantés. C’est cet impératif qui a motivé une commission scolaire du Québec a recommandé l’évaluation de l’Intervention en Réseau (IR), un programme développé en vue de retarder l’âge d’initiation et de réduire la consommation problématique de SPA chez les élèves. Ce programme adopte une approche novatrice avec pour principal animateur un intervenant pivot (IP) qui assure le suivi des élèves de la 5e année du primaire jusqu’en 3e secondaire. Inspiré des modèles en prévention de la santé et de l’Approche École en santé (AES), le rôle de l’IP ici se démarque de ceux-ci. Certes, il est l’interface entre les différents acteurs impliqués et les élèves mais dans le cadre du programme IR, l’IP est intégré dans les écoles primaires et secondaires qu’il dessert. C’est cet intervenant qui assure la mobilisation des autres acteurs pour la mise en œuvre des activités. Cette thèse vise à rendre compte de ce processus d’évaluation ainsi que des résultats obtenus. L’approche d’évaluation en est une de type participatif et collaboratif avec des données quantitatives et qualitatives recueillies par le biais de questionnaires, d’entrevues, de groupes de discussion, d’un journal de bord et de notes de réunions. Les données ont été analysées dans le cadre de trois articles dont le premier concerne l’étude d’évaluabilité (ÉÉ) du programme. Les participants de cette ÉÉ sont des acteurs-clés du programme (N=13) rencontrés en entrevues. Une analyse documentaire (rapports et journal de bord) a également été effectuée. Cette ÉÉ a permis de clarifier les intentions des initiateurs du programme et les objectifs poursuivis par ces derniers. Elle a également permis de rendre la théorie du programme plus explicite et de développer le modèle logique, deux éléments qui ont facilité les opérations d’évaluation qui ont suivi. Le deuxième article porte sur l’évaluation des processus en utilisant la théorie de l’acteur-réseau (TAR) à travers ses quatre moments du processus de traduction des innovations (la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés), l’analyse des controverses et du rôle des acteurs humains et non-humains. Après l’analyse des données obtenues par entrevues auprès de 19 informateurs-clés, les résultats montrent que les phases d’implantation du programme passent effectivement par les quatre moments de la TAR, que la gestion des controverses par la négociation et le soutien était nécessaire pour la mobilisation de certains acteurs humains. Cette évaluation des processus a également permis de mettre en évidence le rôle des acteurs non-humains dans le processus d’implantation du programme. Le dernier article concerne une évaluation combinée des effets (volet quantitatif) et des processus (volet qualitatif) du programme. Pour le volet quantitatif, un devis quasi-expérimental a été adopté et les données ont été colligées de façon longitudinale par questionnaires auprès de 901 élèves de 5e et 6e année du primaire et leurs enseignants de 2010 à 2014. L’analyse des données ont montré que le programme n’a pas eu d’effets sur l’accessibilité et les risques perçus, l’usage problématique d’alcool et la polyconsommation (alcool et cannabis) chez les participants. Par contre, les résultats suggèrent que le programme pourrait favoriser la réduction du niveau de consommation et retarder l’âge d’initiation à l’alcool et au cannabis. Ils suggèrent également un effet potentiellement positif du programme sur l’intoxication à l’alcool chez les élèves. Quant au volet qualitatif, il a été réalisé à l’aide d’entrevues avec les intervenants (N=17), de groupes de discussion avec des élèves du secondaire (N=10) et d’une analyse documentaire. Les résultats montrent que le programme bénéficie d’un préjugé favorable de la part des différents acteurs ayant participé à l’évaluation et est bien acceptée par ces derniers. Cependant, le roulement fréquent de personnel et le grand nombre d’écoles à suivre peuvent constituer des obstacles à la bonne marche du programme. En revanche, le leadership et le soutien des directions d’écoles, la collaboration des enseignants, les qualités de l’IP et la flexibilité de la mise en œuvre sont identifiés comme des éléments ayant contribué au succès du programme. Les résultats et leur implication pour les programmes et l’évaluation sont discutés. Enfin, un plan de transfert des connaissances issues de la recherche évaluative est proposé.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
En raison d’importantes transitions démographiques et épidémiologiques, le nombre de personnes atteintes de la maladie d’Alzheimer et d’autres troubles neurocognitifs majeurs augmentera rapidement dans les sociétés occidentales. Ces maladies posent des enjeux d’envergure pour les personnes atteintes, leurs proches, les communautés et l’organisation des services. Plus largement, ce sont les politiques publiques qui doivent être repensées. Sous ce principe, le gouvernement du Québec a mobilisé une équipe d’experts pour concevoir le Plan Alzheimer du Québec (PAQ) (2007). La principale stratégie de mise en œuvre qui découle de ce plan fût de soutenir le développement de 19 projets pilotes ayant principalement pour objectif de diagnostiquer plus rapidement les personnes atteintes de ces maladies et de rehausser la qualité de leur suivi, au sein des Groupes de médecines de famille (GMF). Le modèle d’appel à propositions développé par l’équipe ministérielle a convié les acteurs locaux du système sociosanitaire québécois le souhaitant à rédiger une proposition en fonction de leurs propres conditions locales de pratique, bien que la proposition devait globalement être en cohésion avec les priorités nationales. Dû au fait que ce type de stratégie de diffusion des politiques publiques vers les organisations délivrant des services pose des défis d’équilibre entre les priorités ministérielles et les réalités locales, nous nous sommes intéressés à la mise en œuvre du plan québécois. Plus précisément, notre principal but de recherche consistait à comprendre de quelle façon les orientations du PAQ se sont traduites dans les projets pilotes. Pour ce faire, nous avons mené une analyse secondaire de données qualitatives qui s’articule autour de trois stratégies de collecte de données : 1) les documents du ministère et ceux des 19 propositions développées par les acteurs locaux, 2) quatre entretiens semi-dirigés auprès d’acteurs-clefs ayant participé au niveau national à la mise en œuvre du PAQ et 3) 15 groupes de discussions focalisées ayant été réalisés auprès de gestionnaires et de professionnels impliqués au sein des innovations, dont des travailleuses sociales. La mise en œuvre du PAQ vers ses formes locales a donné lieu au développement d’une grande diversité de projets innovants, comprenant principalement des médecins, des infirmières et des travailleuses sociales. La mise en place d’un important dispositif d’accompagnement du changement, lors de l’implantation des innovations, a favorisé des ajustements entre les deux principes en apparences contradictoires que sont le respect des objectifs ministériels et l’encouragement des acteurs locaux à adapter le projet en fonction de leurs réalités. Cet accompagnement, globalement positif, a toutefois été mis en place tardivement, ce qui eut des effets durables sur l’implantation des innovations. Nous soutenons donc que la phase initiale de conception des innovations locales est un moment critique qui requiert d’accompagner les acteurs locaux, afin de clarifier le modèle proposé par la politique publique et favoriser la collaboration des principales personnes qui sont parties prenantes du changement.