482 resultados para Estimation des données de panel
Resumo:
Les populations autochtones canadiennes ont un passé difficile qui influence leur vécu actuel. Les recherches canadiennes et ailleurs dans le monde s’entendent sur la surreprésentation des enfants autochtones en protection de l’enfance. Au Canada, la surreprésentation s’explique présentement par la présence de conditions de vie dégradées plutôt qu’en raison d’un traitement différentiel des services de protection à l’égard des enfants autochtones. La présente étude ajoute aux connaissances sur les mauvais traitements et la réponse des services de protection de la jeunesse aux enfants autochtones québécois en s’intéressant à trois questions : leur surreprésentation, leurs différences par rapport aux autres enfants et les prédicteurs du placement. D’abord, à partir des données administratives de la protection de la jeunesse, la surreprésentation des enfants autochtones est évaluée à trois étapes des services : les signalements retenus, les situations fondées et les placements. Les enfants autochtones et les autres enfants sont comparés sur un ensemble de caractéristiques personnelles, familiales, parentales des signalements et des services rendus. Les prédicteurs du placement des enfants desservis par la protection de la jeunesse sont enfin vérifiés, en portant une attention particulière à l’importance du statut autochtone dans cette prédiction. Les résultats révèlent une augmentation de la surreprésentation des enfants autochtones d’une étape à l’autre des services de protection considérés. Ces enfants ont plus souvent des conditions de vie difficiles et sont confrontés à davantage de facteurs de risque que les autres enfants. Le statut autochtone est important dans la prédiction du placement, même après l’ajout d’un ensemble de caractéristiques pouvant contribuer à la prédiction. La complexité d’accès aux services de première ligne dans les communautés autochtones ou l’influence d’une variable non considérée, telle la pauvreté matérielle et économique, constituent de possibles explications. Les implications pour la recherche et la pratique sont discutées.
Resumo:
La présente recherche vise à mieux comprendre, dans le contexte universitaire béninois, s’il peut exister un lien qualitatif entre TIC et rendement académique afin de pouvoir mettre les TIC à contribution pour améliorer significativement les mauvais résultats des apprenants, notamment au premier cycle universitaire. Cette étude est tout particulièrement importante dans notre contexte où les TIC font de plus en plus leur apparition en pédagogie universitaire et où les étudiants recourent aux TIC dans leur pratique plus que les formateurs dans la leur. Le cadre de référence retenu pour la recherche est structuré autour des concepts de l’apprentissage assisté par les TIC, de motivation en éducation et de rendement académique. Pour atteindre notre objectif de recherche, nous avons opté pour une démarche mixte : quantitative et qualitative. Il s’agit d’une étude descriptive/explicative. Nous avons mené une enquête par questionnaires auprès de 156 étudiants et 15 enseignants et fait des entrevues avec 11 étudiants et 6 enseignants. Les principaux résultats sont présentés sous forme d’articles respectivement en ce qui a trait à l’impact des TIC sur la motivation et la réussite, aux usages des TIC les plus fréquemment rencontrés chez les apprenants, et à la place des TIC dans la pratique pédagogique des enseignants de la faculté de droit de l’Université d’Abomey-Calavi. Plus précisément, il ressort des résultats que la majorité des participants ont une perception en général positive du potentiel motivationnel des TIC pour l’apprentissage. Cependant, sur une cote maximale de 7 (correspond très fortement), la perception des répondants relativement à l’impact positif de l’utilisation des TIC sur le rendement académique tourne autour d’une cote moyenne de 4 (correspond assez). D’où, une perception en général mitigée du lien entre l’apprentissage assisté par les TIC et la réussite. Le croisement des résultats des données quantitatives avec ceux de l’analyse qualitative induit, sur ce point, une perception positive prononcée des rapports entre TIC et rendement. Les résultats montrent également que les usages des TIC les plus fréquents chez ces apprenants sont le courriel (en tête), suivi de la recherche et du traitement de texte, avec une fréquence moyenne d’ « une fois par semaine ». Tous ces constats n’accréditent pas véritablement un usage académique des TIC. Chez les enseignants, les résultats ont montré aussi qu’il n’y a pas encore de réelles applications des TIC en situation d’enseignement : ils font plutôt un usage personnel des TIC et pas encore véritablement pédagogique. La conséquence logique de ces résultats est qu’il n’existe pas encore un lien qualitatif direct entre TIC et rendement académique en contexte universitaire béninois.
Resumo:
Le choix du Sénégal de faire des TIC un des leviers stratégiques de rénovation de l’école soulève des questions dont la nécessité de voir comment les enseignants se les approprient afin que l’école en tire les avantages attendus. Pour mieux comprendre comment et pourquoi se construisent les usages pédagogiques des TIC, la présente recherche vise à décrire et à analyser le processus et les facteurs d’intégration des TIC dans les pratiques d’enseignement des instituteurs sénégalais. La difficulté à retracer le processus a conduit à nous appuyer sur un modèle descripteur des processus d’intégration pédagogique des TIC inspiré de Sandholtz, Ringstaff et Dwyer (1997), de Karsenti, Savoie-Zajc et Larose (2001) et de Poellhuber et Boulanger (2001). Six instituteurs de l’Inspection d’Académie de Dakar qui développent depuis quatre ans au moins des TIC en classe ont été sélectionnés pour une étude multi-cas. Six entrevues individuelles semi-dirigées ont été réalisées complétées par un questionnaire, l’observation des pratiques d’intégration des TIC et une analyse documentaire. Les résultats du traitement des données recueillies sont présentés en trois articles abordant chacun un des volets de l’objectif de la recherche. Il ressort des résultats que les usages des TIC des six participants sont portés par des profils et des contextes d’usages particulièrement favorables à des pratiques d’information, de communication et de préparation de la classe à la maison et à des activités de recherche et de documentation, d’édition et de publication et d’apprentissages disciplinaires ou thématiques en classe avec les élèves. Par ailleurs, les analyses comparatives montrent que les formations (initiales et en cours d’emploi) qu’ils ont suivies ne les ayant pas suffisamment préparés à intégrer les TIC dans leurs pratiques d’enseignement, c’est dans le cadre des équipes pédagogiques portant leurs projets d’établissement d’intégration pédagogique des TIC et par des stratégies individuelles d’autoformation et d’organisation, collectives et coopératives de co-formation qu’ils ont construit leurs usages et surmonté les difficultés du parcours. Ce processus est porté par divers facteurs contextuels, institutionnels et sociaux particulièrement favorables. En plus, Ils partagent des dispositions d’esprit, des croyances et des postures épistémiques et psychosociales qui les poussent à toujours aller plus loin dans leurs pratiques d’intégration des TIC. En permettant de mieux comprendre le processus menant un instituteur des usages personnels des TIC à leurs usages professionnels et pédagogiques et comment les facteurs d’influence jouent sur les processus de cooptation et d’appropriation par lesquels il les construit, la présente recherche fournit des modèles de tracés et d’étapes d’intégration des TIC susceptibles d’être partagés et intégrés dans les référentiels de formation des enseignants à l’intégration pédagogique des TIC. Elle permet également de mieux dessiner les contours des contextes d’usages à développer et de définir les axes et les leviers pédagogiques et psychosociaux que des formateurs peuvent utiliser afin d’amener des enseignants en situation de construction des usages pédagogiques des TIC à développer les comportements et les attitudes favorables à l’intégration des TIC dans leurs pratiques d’enseignement.
Resumo:
À ce jour, peu d’études ont été conduites pour mieux comprendre le phénomène de la demande d’aide auprès d’hommes dans le contexte du cancer. Les études consultées suscitaient de nombreuses questions et hypothèses sur la signification que pouvaient accorder ces hommes à la demande d’aide. C’est pourquoi l’étudiante chercheuse a réalisé cette étude phénoménologique auprès d’hommes atteints d’un cancer de la sphère otorhinolaryngologique, afin de mieux comprendre ce phénomène. Huit hommes ont accepté de participer à l’étude. Suite aux entrevues semi-structurées, l’analyse des données, assistée par la méthode proposée par Giorgi (1997), a fait ressortir les thèmes centraux suivants : 1) Se sentir capables de faire face seuls aux diverses adversités; 2) Bénéficier du soutien des proches et de l’équipe de soins; et 3) Utiliser des stratégies cognitives. Les résultats ont révélé que la signification accordée à la demande d’aide est intimement liée à la construction sociale du genre, c’est-à-dire aux normes d’identité masculine acquises culturellement. Les valeurs accordées à l’autonomie, à l’estime de soi et à « l’égo masculin » expliqueraient en partie pourquoi les hommes interviewés demandent peu d’aide. Par ailleurs, la présence constante de la conjointe et le soutien de l’équipe professionnelle de santé semblent avoir grandement modulé les comportements de demande d’aide des participants en anticipant leurs besoins avant même qu’ils puissent les exprimer; ce qui invite à une réflexion sur l’empowerment, stratégie d’intervention fondée sur la responsabilisation individuelle. Des recommandations pour la pratique et la recherche infirmières sont formulées afin d’optimiser le soin et le développement du savoir infirmier dans ce domaine d’intérêt.
Resumo:
La consultation de bases de données publiques en bio-informatique est essentielle pour quiconque a un intérêt pour la biologie cellulaire, la génétique ou la biologie des systèmes. Les notices de ces bases contiennent surtout des données spécialisées: séquences de nucléotides ou d’acides aminés, structures de protéines en trois dimensions, ou encore composantes de sentiers biologiques. Cependant, il peut être difficile de localiser l’information souhaitée parmi les centaines de bases de données disponibles. La Bibliothèque de la santé de l’Université de Montréal offre depuis janvier 2010 une activité de découverte des bases de données du National Center for Biotechnology Information; on y explore une vingtaine de bases et d’outils à l’aide d’exercices pratiques. Les moyens utilisés pour réaliser, publiciser et évaluer cette nouvelle activité de formation seront présentés.
Resumo:
Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.
Resumo:
Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)
Resumo:
Problématique : Les femmes travailleuses du sexe (TS) constituent la population le plus à risque d’infection au VIH dans différents pays d’Afrique subsaharienne. Plusieurs interventions y ont ainsi été menées pour réduire le risque d’infection en influant sur les facteurs de risque. Parmi ces interventions, on peut citer la promotion de l’utilisation du préservatif de même que le dépistage et le traitement des infections sexuellement transmissibles (IST). Cependant, certaines composantes sont peu représentées dans ce panel d’interventions offertes aux femmes TS. Le conseil dépistage volontaire pourrait s’avérer une intervention utile de prévention primaire et secondaire pour cette population mais son acceptabilité est mal connue. Par ailleurs, en termes de surveillance de l’épidémie, l’évaluation de la validité de l’auto-rapport d’utilisation du préservatif, indicateur fréquemment utilisé lors d’enquêtes populationnelles serait souhaitable. Enfin, pour ce qui est de la prévention de l’infection dans cette population, l’effet du désir d’enfant sur l’utilisation non systématique du condom avec le principal partenaire régulier non payant est peu connu. Il en est de même pour la prévalence de certaines IST comme le VPH-16 et l’effet combiné de facteurs sociodémographiques, comportementaux et préventifs sur la présence de ces IST. Objectifs : Les objectifs de cette thèse sont 1) de mesurer l’acceptabilité et les conséquences du conseil dépistage volontaire du VIH chez les femmes TS de Conakry en Guinée; 2) d’évaluer la validité de l’auto-rapport de l’utilisation du préservatif dans cette population grâce à un indicateur biologique de présence de sperme, l’antigène spécifique de la prostate (PSA); 3) d’estimer la fréquence d’utilisation systématique du préservatif avec les partenaires clients et non-clients des femmes TS et d’étudier l’importance du désir d’enfant dans l’utilisation non systématique du préservatif avec le principal partenaire régulier non-client et 4) de mesurer la prévalence des IST et du VIH et d’étudier les facteurs sociodémographiques, comportementaux et préventifs qui y sont associés. Méthodologie : Nous avons mené une étude longitudinale dans la ville de Conakry en Guinée auprès de 421 femmes TS recrutées dans trois services de santé adaptés pour elles. Un devis mixte répété un an plus tard a permis de collecter des données quantitatives et qualitatives. Des analyses biologiques de dépistage des IST et du VIH ont été effectuées. Résultats : Le premier article de résultats présenté dans cette thèse montre que l’acceptabilité du conseil dépistage volontaire est élevée chez les femmes TS. En effet, les taux d’acceptation du test, de retour pour la prise de résultats et de notification du statut sérologique avoisinaient les 100%. Cette acceptabilité semblait être le fait d’une perception de risque d’infection élevé, mais aussi d’une pression sociale du milieu prostitutionnel pour effectuer le dépistage et révéler le statut sérologique. Les conséquences négatives au dépistage étaient rares. Le deuxième article montre que l’auto-rapport de l’usage récent du préservatif a une très faible sensibilité lorsque comparé à l’étalon d’or que constitue la PSA. Ainsi, la plupart des personnes chez qui la PSA était retrouvée ne rapportaient aucun rapport non protégé récent. La discordance entre l’auto-rapport d’utilisation récente du préservatif et la présence de PSA était associée à une perception de risque d’infection au VIH élevé. Enfin, la troisième section montre que si l’utilisation systématique du préservatif était très fréquente avec les clients, elle l’est beaucoup moins avec le principal partenaire régulier non-client. Le désir d’enfant de la femme TS contribue de manière significative à l’utilisation non systématique du condom avec ce type de partenaire. Des facteurs sociodémographiques, comportementaux et la coinfection par d’autres IST sont associés à la présence d’IST/VIH, ces dernières étant fréquentes dans la population des femmes TS malgré les nombreuses interventions qui y sont menées. Conclusion : En conclusion, l’on peut dire que la prévention du VIH chez les femmes TS constitue un défi nécessitant des interventions intégrées tenant compte du contexte commercial dans lequel ces interventions sont implantées et des aspirations des femmes TS en matière de reproduction.
Resumo:
L’objectif principal de ce mémoire est de déterminer l’effet modérateur des évènements stressants subis lors de l’enfance sur la relation entre les conditions de l’organisation du travail et le niveau de détresse psychologique vécue par les policiers et les employés de bureau de la ville de Montréal (SPVM). Les objectifs secondaires sont de déterminer le rôle direct des conditions de l’organisation du travail et des évènements stressants subis lors de l’enfance sur le niveau de détresse psychologique de cette population. Des données secondaires découlant d’une enquête réalisée auprès de 410 employés du SPVM nous ont permis de réaliser cette étude et de faire les analyses statistiques nécessaires. Cette recherche nous a permis de déceler quelques facteurs pouvant influencer le niveau de détresse psychologique des employés du SPVM. Entre autres, les résultats nous indiquent un niveau de détresse psychologique assez faible pour notre échantillon. De plus, ceux-ci nous démontrent que parmi les conditions de l’organisation du travail, deux variables indépendantes sont associées à une variation du niveau de détresse psychologique, c’est-à-dire les demandes psychologiques et le soutien social des superviseurs. En effet, les demandes psychologiques font augmenter le niveau de détresse psychologique, tandis que le soutien des superviseurs le fait diminuer. De plus, nos résultats soutiennent que le fait d’être un homme, de vivre en couple, de ne pas subir de tensions avec son enfant et son conjoint, de pratiquer des activités physiques, de ne pas consommer de tabac et de posséder un centre de contrôle interne sont associés à un faible niveau de détresse psychologique. Parallèlement, cette étude nous a permis d’avoir une compréhension plus exhaustive du rôle spécifique des évènements de vie stressants vécus lors de l’enfance en ce qui concerne la détresse psychologique vécue en milieu de travail. Ainsi, nos analyses multivariées nous ont permis d’identifier le fait qu’il n’y avait pas présence d’un effet modérateur des évènements stressants subis lors de l’enfance sur la relation entre les conditions de l’organisation du travail et le niveau de détresse psychologique. Pour ce qui est de la relation des évènements stressants subis lors de l’enfance sur le niveau de détresse psychologique, aucun lien n’a été décelé lors des analyses.
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
L’immunosuppression a permis d’améliorer l’incidence du rejet aigu sans toutefois améliorer significativement le rejet chronique. Celui-ci est caractérisé par une vasculopathie du greffon (VG) similaire à une forme accélérée d’athérosclérose native accompagnée de fibrose. La pathophysiologie de la VG découle de l’hypothèse de réponse à l’insulte proposée par Russell Ross en 1977. Selon son postulat, l’endothélium stressé par des facteurs immunologiques et non immunologiques initie l’apoptose endothéliale suivi d’une réponse de réparation vasculaire via un épaississement myo-intimal aux sites d’insultes. Toutefois, lorsque les stress endothéliaux initiaux demeurent soutenus, l’apoptose endothéliale et la réponse de réparation perpétuent. Compte tenu que l’inhibition de l’apoptose endothéliale bloque le développement de la VG in vivo, notre hypothèse de travail reposait sur les répercussions paracrines de l’apoptose endothéliale sur les types cellulaires participant au remodelage vasculaire. Nous avons généré un système expérimental in vitro afin d’induire l’apoptose endothéliale en absence significative de nécrose cellulaire. À l’aide d’une approche protéomique multidimensionnelle et comparative, nous avons démontré que les cellules endothéliales apoptotiques exportent spécifiquement 27 signaux post mortem (SPM). Nous avons démontré que certains de ces SPM ont des propriétés anti-apoptotiques (TCTP et EGF), d’autre fibrogénique (CTGF), récapitulant ainsi certains phénotypes cellulaires associés au développement de la VG. Parmi les médiateurs identifiés, 16 n’avaient pas de signal de sécrétion, incluant TCTP, suggérant que des mécanismes de sécrétion non conventionnels soient favorisés durant l’apoptose. Nous avons démontré que la caspase-3 effectrice régule la voie de sécrétion non classique exosomiale associée à l’export extracellulaire de nanovésicules TCTP+VE, anti-apoptotiques et biochimiquement distinctes des corps apoptotiques. Finalement, l’ensemble des données protéomiques ont permis d’émettre l’hypothèse qu’en réponse à un stress apoptotique, la cellule exporte différents médiateurs (solubles et vésiculaires) de manière non conventionnelle nécessitant la fusion d’organelles de la voie endocytaire et autophagique avec la membrane plasmique. Ce mécanisme serait régulé durant la phase effectrice de l’apoptose permettant ainsi d’initier une réponse de réparation extracellulaire seulement lorsque le destin cellulaire a atteint un point de non retour. Ainsi, le testament protéique et nanovésiculaire légué durant l’apoptose endothéliale pourrait servir simultanément de biomarqueur de la VG et de cible thérapeutique afin de diminuer le remodelage vasculaire pathologique.
Resumo:
Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.
Resumo:
La présente étude intitulée « utilisation des technologies de l’information et de la communication dans l’enseignement secondaire et développement des compétences des élèves en résolution de problèmes mathématiques au Burkina Faso » est une recherche descriptive de type mixte examinant à la fois des données qualitatives et quantitatives. Elle examine les compétences en résolution de problèmes mathématiques d’élèves du Burkina Faso pour révéler d’éventuelles relations entre celles-ci et l’utilisation des TIC par les élèves ou leur enseignant de mathématiques. L’intérêt de cette recherche est de fournir des informations aussi bien sur la réalité des TIC dans l’enseignement secondaire au Burkina que sur les effets de leur présence dans l’enseignement et l’apprentissage des mathématiques. Les éléments théoriques ayant servi à l’analyse des données sont présentés suivant trois directions : la résolution des problèmes, le développement des compétences, et les relations entre les TIC, le développement de compétences et la résolution de problèmes. Du croisement de ces éléments émergent trois axes pour le développement de la réponse apportée à la préoccupation de l’étude : 1) décrire l’utilisation de l’ordinateur par les élèves du Burkina Faso pour améliorer leur apprentissage des mathématiques ; 2) identifier des rapports éventuels entre l’utilisation de l’ordinateur par les élèves et leurs compétences en résolution de problèmes mathématiques ; 3) identifier des rapports entre les compétences TIC de l’enseignant de mathématiques et les compétences de ses élèves en résolution de problèmes. Les processus de la résolution de problèmes sont présentés selon l’approche gestaltiste qui les fait passer par une illumination et selon l’approche de la théorie de la communication qui les lie au type de problème. La résolution de problèmes mathématiques passe par des étapes caractéristiques qui déterminent la compétence du sujet. Le concept de compétence est présenté selon l’approche de Le Boterf. Les données révèlent que les élèves du Burkina Faso utilisent l’ordinateur selon une logique transmissive en le considérant comme un répétiteur suppléant de l’enseignant. Par la suite, il n’y a pas de différence significative dans les compétences en résolution de problèmes mathématiques entre les élèves utilisant l’ordinateur et ceux qui ne l’utilisent pas. De même, l’étude révèle que les enseignants présentant des compétences TIC n’ont pas des élèves plus compétents en résolution de problèmes mathématiques que ceux de leurs collègues qui n’ont pas de compétences TIC.