621 resultados para Problèmes de conduites
Resumo:
Seulement une minorité d’adolescents qui consomment des substances psychoactives développe des problèmes significatifs reliés à cette consommation. Il importe donc de connaître et de comprendre les processus par lesquels se développe la consommation problématique afin de pouvoir la prévenir. Cette étude examine le rôle des symptômes dépressifs et des relations sociales dans le développement de la consommation problématique à l’adolescence. Plus précisément, elle vise à déterminer, à l’aide d’un devis longitudinal corrélationnel prospectif, si le soutien des pairs, le soutien des parents et la qualité de la relation maître-élève ont des effets modérateurs protecteurs sur la relation entre les symptômes dépressifs et la consommation problématique. L’échantillon utilisé pour cette étude est tiré de la Stratégie d’Intervention Agir Autrement et comprend 4473 adolescents. Des régressions linéaires multiples ont été effectuées et ont démontré que les symptômes dépressifs et le soutien des parents augmentent le risque d’une consommation problématique, alors que le soutien des pairs le diminue. De plus, les résultats confirment le rôle protecteur du soutien des pairs, mais indiquent que le soutien des parents exacerbe le lien entre les symptômes dépressifs et la consommation problématique. Par ailleurs, la qualité de la relation maître-élève est associée à une consommation moins problématique uniquement chez les jeunes qui n’ont pas beaucoup de symptômes dépressifs. Les implications de ces résultats sont discutées.
Resumo:
Objectif principal: Il n’est pas démontré que les interventions visant à maîtriser voire modérer la médicamentation de patients atteints d’hypertension peuvent améliorer leur gestion de la maladie. Cette revue systématique propose d’évaluer les programmes de gestion contrôlée de la médicamentation pour l’hypertension, en s’appuyant sur la mesure de l’observance des traitements par les patients (CMGM). Design: Revue systématique. Sources de données: MEDLINE, EMBASE, CENTRAL, résumés de conférences internationales sur l’hypertension et bibliographies des articles pertinents. Méthodes: Des essais contrôlés randomisés (ECR) et des études observationnelles (EO) ont été évalués par 2 réviseurs indépendants. L’évaluation de la qualité (de ce matériel) a été réalisée avec l’aide de l’outil de Cochrane de mesure du risque de biais, et a été estimée selon une échelle à quatre niveaux de qualité Une synthèse narrative des données a été effectuée en raison de l'hétérogénéité importante des études. Résultats: 13 études (8 ECR, 5 EO) de 2150 patients hypertendus ont été prises en compte. Parmi elles, 5 études de CMGM avec l’utilisation de dispositifs électroniques comme seule intervention ont relevé une diminution de la tension artérielle (TA), qui pourrait cependant être expliquée par les biais de mesure. L’amélioration à court terme de la TA sous CMGM dans les interventions complexes a été révélée dans 4 études à qualité faible ou modérée. Dans 4 autres études sur les soins intégrés de qualité supérieure, il n'a pas été possible de distinguer l'impact de la composante CMGM, celle-ci pouvant être compromise par des traitements médicamenteux. L’ensemble des études semble par ailleurs montrer qu’un feed-back régulier au médecin traitant peut être un élément essentiel d’efficacité des traitements CMGM, et peut être facilement assuré par une infirmière ou un pharmacien, grâce à des outils de communication appropriés. Conclusions: Aucune preuve convaincante de l'efficacité des traitements CMGM comme technologie de la santé n’a été établie en raison de designs non-optimaux des études identifiées et des ualités méthodologiques insatisfaisantes de celles-ci. Les recherches futures devraient : suivre les normes de qualité approuvées et les recommandations cliniques actuelles pour le traitement de l'hypertension, inclure des groupes spécifiques de patients avec des problèmes d’attachement aux traitements, et considérer les résultats cliniques et économiques de l'organisation de soins ainsi que les observations rapportées par les patients.
Resumo:
Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.
Resumo:
Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
À partir des années 1960, avec l’apparition d’un « nous » québécois territorialement défini, intellectuels et groupes de pression se mettent à construire le « problème » de la sous-représentation des autochtones dans l’enseignement de l’histoire nationale à l’école au Québec. Nous comparons la place de ce « problème » à l’agenda des concepteurs des deux derniers programmes d’enseignement de l’histoire nationale à l’école secondaire au Québec : Histoire du Québec et du Canada (1982-2008) et Histoire et éducation à la citoyenneté (2007/2008-). Nous montrons que ce « problème » n’a été inscrit avec proéminence qu’à l’agenda des concepteurs du nouveau programme. Comment expliquer cette différence entre l’agenda des concepteurs de ces deux programmes? En se basant sur l’approche des courants multiples développé par John Kingdon, nous montrons qu’à partir des années 1990, tous les éléments étaient réunis pour favoriser la mise à l’agenda de ce « problème » - courant des problèmes, courant des solutions, courant de la politique, entrepreneur politique et fenêtre d’opportunité. Par contraste, nous arguons qu’à la fin des années 1970, un élément manquait : le courant de la politique, et en particulier le « national mood ». Pour rendre ce concept moins a-historique, nous déclinons le « national mood » en trois niveaux hiérarchiques de croyances, selon la typologie de Sabatier et Jenkins-Smith (1993). Nous montrons qu’il y a eu un changement au niveau des croyances les plus fondamentales et inaltérables des élites intellectuelles et politiques québécoises entre la fin des années 1970 et les années 1990 consistant à reconnaître les peuples autochtones.
Resumo:
Une morbidité et une mortalité néonatales élevées limitent l’efficacité du clonage somatique chez les bovins. Des malformations myoarthrosquelettiques, des anomalies ombilicales, des problèmes respiratoires et de la faiblesse ont été fréquemment observés chez les veaux clonés nouveaux-nés. Cette étude rétrospective porte sur 31 veaux clonés. Ses objectifs étaient de décrire les problèmes respiratoires rencontrés, leur évolution au cours du temps, les traitements instaurés pour soutenir la fonction respiratoire et la réponse aux traitements. Vingt-deux veaux ont souffert de problèmes respiratoires. La tachypnée, l’hypoxémie et l’hypercapnie sont les signes cliniques les plus fréquemment observés. L’analyse des gaz sanguins a été un outil essentiel dans le diagnostic et le suivi de la fonction respiratoire. La radiographie a permis une évaluation globale du poumon. L’oxygénothérapie intranasale et la ventilation mécanique ont permis de limiter la mortalité due à une insuffisance respiratoire à 18% (4/22). Cette étude a permis d’émettre des hypothèses quant à l’origine des problèmes respiratoires chez les veaux clonés. Plus d’une maladie semblent affecter les veaux clonés. La déficience en surfactant, l’hypertension pulmonaire persistante et le retard de résorption du fluide pulmonaire figurent parmi les entités pathologiques les plus probables.
Resumo:
La conception heideggérienne du « cercle de la compréhension » exposée aux §§ 31 et 32 de Sein und Zeit est bien connue et a souvent été analysée, notamment par Hans-Georg Gadamer dans Vérité et méthode (1960) et Jean Greisch dans son commentaire de Sein und Zeit (1994). Mais on a trop peu vu que la théorie du cercle herméneutique déterminait aussi la conception heideggérienne de la philosophie. Notre recherche s’efforcera de le montrer et d’expliquer pourquoi il en est ainsi. Au plan de la méthodologie, nous proposerons, en nous inspirant des commentateurs les plus autorisés (Greisch, Gadamer, Courtine, et al.), un commentaire serré des §§ 31 et 32 de Sein und Zeit, sans oublier le § 63 où Heidegger souligne lui-même la « situation herméneutique » de sa propre enquête, ni le § 68 où se trouve mise en évidence la dimension temporelle du cercle de la compréhension. Nous tâcherons ensuite de montrer en quoi ce cercle affecte la conception heideggérienne de la philosophie telle que présentée au § 7 de Sein und Zeit et dans d’autres textes de Heidegger tels que Les problèmes fondamentaux de la phénoménologie (GA 24).
Resumo:
La présente étude est une analyse et une reconstruction interprétative de la centurie de Calliste Cataphygiotès, intitulée De l'union avec Dieu et de la vie contemplative, chapitres syllogistiques et hauts. Notre approche à ce texte pluridisciplinaire est prioritairement philosophique. Dans le but de mettre en valeur l'intérêt philosophique qu'il représente, nous avons concentré notre analyse sur les problèmes liés au rapport de l'intellect avec l'Un, sur l'étude du concept de l'infini, sur son rôle dans la contemplation et sur la méthode dialectique dont Calliste Cataphygiotès s'en sert. Nous avons reconstruit la doctrine de la contemplation, implicite au texte de Calliste et nous avons tenté une reconstruction globale de la centurie qui permettra au lecteur d'apprécier les qualités spéculatives et l'esprit synthétique de ce mystique byzantin presque inconnu.
Resumo:
Au Québec, près de 25 000 personnes, principalement des aînés, sont touchées par la maladie de Parkinson (MP), la majorité étant soignée par leur conjoint. Au stade modéré, la MP altère la santé et la qualité de vie de ces couples. Ce stade est propice à la mise en place d’interventions dyadiques, car les couples expérimentent des pertes croissantes, nécessitant plusieurs ajustements. Néanmoins, aucune étude n’avait encore examiné leurs besoins d’intervention lors de cette transition et peu d’interventions pour les soutenir ont fait l’objet d’études évaluatives. Avec comme cadre de référence la théorie de l’expérience de transition de Meleis et al. (2000) et l’approche systémique de Wright et Leahey (2009), cette étude visait à développer, mettre à l’essai et évaluer une intervention auprès de couples âgés vivant avec la MP au stade modéré. À cette fin, un devis qualitatif et une approche participative ont été privilégiés. L’élaboration et l’évaluation de l’intervention s’appuient sur le cadre méthodologique d’Intervention Mapping de Bartholomew et al. (2006) et sur les écrits de Miles et Huberman (2003). L’étude s’est déroulée dans une clinique ambulatoire spécialisée dans la MP. Dix couples et quatre intervenants ont collaboré à la conceptualisation de l’intervention. Trois nouveaux couples en ont fait l’expérimentation et l’évaluation. L’intervention dyadique compte sept rencontres de 90 minutes, aux deux semaines. Les principaux thèmes, les méthodes et les stratégies d’intervention sont basés sur les besoins et les objectifs des dyades ainsi que sur des théories et des écrits empiriques. L’intervention est orientée vers les préoccupations des dyades, la promotion de la santé, la résolution de problèmes, l’accès aux ressources, la communication et l’ajustement des rôles. Les résultats de l’étude ont montré la faisabilité, l’acceptabilité et l’utilité de l’intervention. Les principales améliorations notées par les dyades sont l’adoption de comportements de santé, la recherche de solutions ajustées aux situations rencontrées et profitables aux deux partenaires, la capacité de faire appel à des services et l’accroissement des sentiments de maîtrise, de soutien mutuel, de plaisir et d’espoir. Cette étude fournit des pistes aux infirmières, engagées dans différents champs de pratique, pour développer et évaluer des interventions dyadiques écologiquement et théoriquement fondées.
Resumo:
Les métaux lourds (ML) s’accumulent de plus en plus dans les sols à l’échelle mondiale, d’une part à cause des engrais minéraux et divers produits chimiques utilisés en agriculture intensive, et d’autre part à cause des activités industrielles. Toutes ces activités génèrent des déchets toxiques qui s’accumulent dans l’environnement. Les ML ne sont pas biodégradables et leur accumulation cause donc des problèmes de toxicité des sols et affecte la biodiversité des microorganismes qui y vivent. La fertilisation en azote (N) est une pratique courante en agriculture à grande échelle qui permet d’augmenter la fertilité des sols et la productivité des cultures. Cependant, son utilisation à long terme cause plusieurs effets néfastes pour l'environnement. Par exemple, elle augmente la quantité des ML dans les sols, les nappes phréatiques et les plantes. En outre, ces effets néfastes réduisent et changent considérablement la biodiversité des écosystèmes terrestres. La structure des communautés des champignons mycorhiziens à arbuscules (CMA) a été étudiée dans des sols contaminés par des ML issus de la fertilisation à long terme en N. Le rôle des différentes espèces de CMA dans l'absorption et la séquestration des ML a été aussi investigué. Dans une première expérience, la structure des communautés de CMA a été analysée à partir d’échantillons de sols de sites contaminés par des ML et de sites témoins non-contaminés. Nous avons constaté que la diversité des CMA indigènes a été plus faible dans les sols et les racines des plantes récoltées à partir de sites contaminés par rapport aux sites noncontaminés. Nous avons également constaté que la structure de la communauté d'AMF a été modifiée par la présence des ML dans les sols. Certains ribotypes des CMA ont été plus souvent associés aux sites contaminés, alors que d’autres ribotypes ont été associés aux sites non-contaminés. Cependant, certains ribotypes ont été observés aussi bien dans les sols pollués que non-pollués. Dans une deuxième expérience, les effets de la fertilisation organique et minérale (N) sur les différentes structures des communautés des CMA ont été étudiés. La variation de la structure de la communauté de CMA colonisant les racines a été analysée en fonction du type de fertilisation. Certains ribotypes de CMA étaient associés à la fertilisation organique et d'autres à la fertilisation minérale. En revanche, la fertilisation minérale a réduit le nombre de ribotypes de CMA alors que la fertilisation organique l’a augmenté. Dans cette expérience, j’ai démontré que le changement de structure des communautés de CMA colonisant des racines a eu un effet significatif sur la productivité des plantes. Dans une troisième expérience, le rôle de deux espèces de CMA (Glomus irregulare et G. mosseae) dans l'absorption du cadmium (Cd) par des plants de tournesol cultivés dans des sols amendés avec trois niveaux différents de Cd a été évalué. J’ai démontré que les deux espèces de CMA affectent différemment l’absorption ou la séquestration de ce ML par les plants de tournesol. Cette expérience a permis de mieux comprendre le rôle potentiel des CMA dans l'absorption des ML selon la concentration de cadmium dans le sol et les espèces de CMA. Mes recherches de doctorat démontrent donc que la fertilisation en N affecte la structure des communautés des CMA dans les racines et le sol. Le changement de structure de la communauté de CMA colonisant les racines affecte de manière significative la productivité des plantes. J’ai aussi démontré que, sous nos conditions expériemntales, l’espèce de CMA G. irregulare a été observée dans tous les sites (pollués et non-pollués), tandis que le G. mosseae n’a été observé en abondance que dans les sites contaminés. Par conséquent, j’ai étudié le rôle de ces deux espèces (G. irregulare et G. mosseae) dans l'absorption du Cd par le tournesol cultivé dans des sols amendés avec trois différents niveaux de Cd en serre. Les résultats indiquent que les espèces de CMA ont un potentiel différent pour atténuer la toxicité des ML dans les plantes hôtes, selon le niveau de concentration en Cd. En conclusion, mes travaux suggèrent que le G. irregulare est une espèce potentiellement importante pour la phytoextration du Cd, alors que le G. mosseae pourrait être une espèce appropriée pour phytostabilisation du Cd et du Zn.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.
Resumo:
La présente étude avait pour but de déterminer si un programme de prévention de la violence par l’entraînement aux habiletés en résolution de conflits et en médiation pouvait avoir une incidence sur la motivation scolaire et le sentiment d’appartenance à l’école. De par ses trois missions fondamentales (instruire, qualifier et socialiser), l’école québécoise est pour l’élève à la fois un milieu de vie et un milieu d’apprentissage. Toutefois, des problèmes de comportement et de motivation à apprendre peuvent freiner la réussite de certains jeunes. Pour remédier à la situation, des programmes visant à améliorer le comportement des élèves et à prévenir la violence à l’école ont été mis sur pied et évalués, indiquant une amélioration de certains comportements. Quelques études ont aussi noté une corrélation entre ces programmes et la motivation à apprendre. Sachant que l’adoption de buts de maîtrise et le sentiment d’appartenance à l’école sont des variables qui agissent positivement sur la motivation à apprendre, il est pertinent de se demander si un tel programme peut avoir une incidence sur ces variables. Des analyses secondaires de données issues du Rapport final d’évaluation des impacts du programme Vers le pacifique pour les quatre années de sa mise en œuvre (Bowen, 2006) ont été effectuées afin de vérifier si le programme Vers le Pacifique avait un impact sur les buts de maîtrise et le sentiment d’appartenance et déterminer quels comportements appris grâce au programme agissaient sur ces deux mêmes variables. De plus, le sexe des participants, ainsi que le niveau d’implantation du programme dans les écoles, ont été considérés dans les analyses. Les résultats aux analyses de variance ont révélé que le programme Vers le pacifique n’avait pas d’incidence sur les buts de maîtrise et le sentiment d’appartenance. Peu importe le groupe et le sexe, les buts de maîtrise et le sentiment d’appartenance ont diminué au deuxième temps de mesure. Toutefois, un des comportements appris grâce à Vers le pacifique, la gestion des émotions, agit positivement sur l’adoption de buts de maîtrise. À la lumière de ces résultats, qui cadrent avec certaines théories présentes dans la littérature, il est recommandé aux praticiens d’intégrer de manière plus explicite un volet motivationnel au programme Vers le pacifique, dans le but de contrer la diminution des buts de maîtrise et du sentiment d’appartenance et ainsi favoriser le développement de la motivation à apprendre et la réussite scolaire.
Resumo:
Le sujet de l’avortement provoqué demeure encore tabou au Togo et la compréhension du phénomène reste incomplète. La présente étude vise à dresser un portrait complet de ses divers aspects dans la capitale togolaise, qui a connu une baisse importante de la fécondité au cours des dernières années. À partir des données des Enquêtes démographiques et de santé (EDS) de 1988 et 1998, et de celles de l’Enquête sur la planification familiale et l’avortement provoqué (EPAP) de 2002, l’étude montre que le recours à l’avortement est à la hausse à Lomé, bien que l’estimation de son ampleur dépende de la méthode utilisée. Plus de 32 % des femmes ayant déjà été enceintes ont déclaré avoir avorté au moins une fois. Toutefois, l’avortement est plus fréquent chez les jeunes, qui y ont recours de manière plus précoce et plus rapprochée que leurs aînées. En contribuant ainsi à la régulation des naissances, l’avortement réduit la fécondité de 10 à 12 %. En utilisant les données de l’EPAP, réalisée auprès de 4755 femmes âgées de 15-49 ans, nous avons aussi étudié le recours à l’avortement comme une séquence d’étapes débutant par l’exposition au risque de grossesse jusqu’au recours à l’avortement, en passant par une absence de pratique contraceptive et le fait qu’une grossesse qui survient soit déclarée « non désirée ». L’ethnie et la génération sont associées à certaines étapes de la séquence alors que la religion, la parité, le statut matrimonial et le niveau d’instruction sont associés aux quatre étapes. Ainsi, le risque élevé d’avorter chez les femmes instruites découle en fait de leur risque élevé à toutes les étapes. En étant moins à risque de grossesse, les femmes qui ont au moins deux enfants sont plus susceptibles que les nullipares, d’utiliser une contraception moderne, de déclarer une grossesse comme non désirée et d’avorter. Si plusieurs grossesses non désirées surviennent aux âges jeunes, c’est surtout le caractère « hors union » de la grossesse qui fait qu’elle est considérée comme « non désirée » et interrompue. En outre, les femmes qui ont déjà avorté ou utilisé une contraception sont plus enclines à recourir à un avortement. Les résultats montrent également que le partenaire soutient souvent la femme dans la décision d’avorter et s’acquitte des coûts dans la majorité des cas. Malgré le fait qu’ils soient illégaux, plus de 40 % des avortements sont pratiqués à Lomé dans des centres de santé, par un membre du personnel médical, et à l’aide du curetage ou de l’aspiration. Mais, la moitié de ces avortements (22 %) avait été tentée au préalable par des méthodes non médicales. Plusieurs avortements ont aussi lieu soit à domicile (36 %), soit chez des tradi-thérapeutes (24 %), grâce à des méthodes non médicales. Par ailleurs, près de 60 % des avortements ont entraîné des complications sanitaires, conduisant la majorité des femmes à une hospitalisation. Sur le plan psychologique et relationnel, nous avons montré que la plupart des avortements ont entraîné des regrets et remords, de même que des problèmes entre les femmes et leurs parents. Les parents soutiennent en fait peu les femmes dans la décision d’avorter et interviennent rarement dans le paiement des coûts. L’étude a enfin révélé que la loi sur l’avortement est peu connue. Cependant, être âgée de 25 ans ou plus, en union ou très instruite, connaître des méthodes contraceptives, le recours d’une parente ou amie à l’avortement sont associés, toutes choses égales par ailleurs, à une plus grande chance de connaître la loi. L’analyse, en appuyant des déclarations des professionnels de la santé et des femmes, montre que malgré sa forte prévalence à Lomé, le recours à l’avortement demeure largement stigmatisé. Les quelques professionnels et femmes qui se sont prononcés en faveur de sa légalisation pensent que celle-ci permettrait de « réduire les avortements clandestins et risqués ». En fait, ce sont les femmes les plus instruites, âgées de 25 ans ou plus, utilisant la contraception, ayant déjà avorté ou connaissant quelqu’un l’ayant fait, qui sont plus aptes à approuver la légalisation de l’avortement. Celles qui appartiennent aux églises de type « pentecôtiste », plus sévères quant aux relations sexuelles hors mariage, sont par contre moins susceptibles que les catholiques d’avoir une telle attitude positive.