423 resultados para Problèmes conjugaux


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection de l’intimité et de la vie privée des personnes est une préoccupation majeure de notre société car elle favorise la santé et le bien-être des individus. La confidentialité est un des éléments du droit au respect de la vie privée. Élément indispensable à la relation de confiance, le respect de la confidentialité soulève quelques problèmes quant à son maintien dans la relation impliquant les enfants. L’objectif de la présente étude est tout d’abord, d’explorer les différentes dynamiques entourant le secret thérapeutique ou la confidentialité de même que son application, à la lumière des pratiques internationales. Ensuite, elle vise à comprendre les perceptions et le sens de la confidentialité du dossier médical des enfants chez les professionnels de la santé et de l’éducation. Enfin, ce travail vise à comprendre les motivations et la connaissance des impacts du bris de confidentialité par ces professionnels. Il s'agit d'une étude qualitative de nature exploratoire. Les données proviennent d'entrevues semi-dirigées réalisées auprès de dix-neuf personnes oeuvrant de près ou de loin auprès des enfants. Une grille d'entrevue a été utilisée pour la collecte des données. Les résultats permettent d'observer que : tout d’abord, sur le plan international, il y a une absence d’uniformité dans l’application du concept de confidentialité. Son degré de protection dépend du contexte juridique d'un système donné Ensuite, l’étude démontre une relation entre la sensibilité du répondant et son milieu professionnel usuel. En effet, les professionnels de la santé, membres de corporation professionnelle, ont une vision beaucoup plus déontologique de la confidentialité et ils sont très sensibles à la question de la confidentialité, car celle-ci constitue une valeur centrale. Par contre, les professionnels de l’éducation, en l’absence d’identité professionnelle commune, s’inspirent d’une approche institutionnelle qu’éthique et ils apparaissent nettement moins sensibles à la confidentialité. Bref, le respect de la confidentialité est lié à une question de responsabilité sociale des professionnels. Enfin, le bris de la confidentialité est motivé par divers facteurs légitimes (pour raisons légale ou judiciaire, contexte de collaboration) et illégitimes (la négligence, l’erreur, l’inconduite).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La formation des sociétés fondées sur la connaissance, le progrès de la technologie de communications et un meilleur échange d'informations au niveau mondial permet une meilleure utilisation des connaissances produites lors des décisions prises dans le système de santé. Dans des pays en voie de développement, quelques études sont menées sur des obstacles qui empêchent la prise des décisions fondées sur des preuves (PDFDP) alors que des études similaires dans le monde développé sont vraiment rares. L'Iran est le pays qui a connu la plus forte croissance dans les publications scientifiques au cours de ces dernières années, mais la question qui se pose est la suivante : quels sont les obstacles qui empêchent l'utilisation de ces connaissances de même que celle des données mondiales? Cette étude embrasse trois articles consécutifs. Le but du premier article a été de trouver un modèle pour évaluer l'état de l'utilisation des connaissances dans ces circonstances en Iran à l’aide d'un examen vaste et systématique des sources suivie par une étude qualitative basée sur la méthode de la Grounded Theory. Ensuite au cours du deuxième et troisième article, les obstacles aux décisions fondées sur des preuves en Iran, sont étudiés en interrogeant les directeurs, les décideurs du secteur de la santé et les chercheurs qui travaillent à produire des preuves scientifiques pour la PDFDP en Iran. Après avoir examiné les modèles disponibles existants et la réalisation d'une étude qualitative, le premier article est sorti sous le titre de «Conception d'un modèle d'application des connaissances». Ce premier article sert de cadre pour les deux autres articles qui évaluent les obstacles à «pull» et «push» pour des PDFDP dans le pays. En Iran, en tant que pays en développement, les problèmes se situent dans toutes les étapes du processus de production, de partage et d’utilisation de la preuve dans la prise de décision du système de santé. Les obstacles qui existent à la prise de décision fondée sur des preuves sont divers et cela aux différents niveaux; les solutions multi-dimensionnelles sont nécessaires pour renforcer l'impact de preuves scientifiques sur les prises de décision. Ces solutions devraient entraîner des changements dans la culture et le milieu de la prise de décision afin de valoriser la prise de décisions fondées sur des preuves. Les critères de sélection des gestionnaires et leur nomination inappropriée ainsi que leurs remplaçants rapides et les différences de paiement dans les secteurs public et privé peuvent affaiblir la PDFDP de deux façons : d’une part en influant sur la motivation des décideurs et d'autre part en détruisant la continuité du programme. De même, tandis que la sélection et le remplacement des chercheurs n'est pas comme ceux des gestionnaires, il n'y a aucun critère pour encourager ces deux groupes à soutenir le processus décisionnel fondés sur des preuves dans le secteur de la santé et les changements ultérieurs. La sélection et la promotion des décideurs politiques devraient être basées sur leur performance en matière de la PDFDP et les efforts des universitaires doivent être comptés lors de leurs promotions personnelles et celles du rang de leur institution. Les attitudes et les capacités des décideurs et des chercheurs devraient être encouragés en leur donnant assez de pouvoir et d’habiliter dans les différentes étapes du cycle de décision. Cette étude a révélé que les gestionnaires n'ont pas suffisamment accès à la fois aux preuves nationales et internationales. Réduire l’écart qui sépare les chercheurs des décideurs est une étape cruciale qui doit être réalisée en favorisant la communication réciproque. Cette question est très importante étant donné que l'utilisation des connaissances ne peut être renforcée que par l'étroite collaboration entre les décideurs politiques et le secteur de la recherche. Dans ce but des programmes à long terme doivent être conçus ; la création des réseaux de chercheurs et de décideurs pour le choix du sujet de recherche, le classement des priorités, et le fait de renforcer la confiance réciproque entre les chercheurs et les décideurs politiques semblent être efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs recherches ont démontré que la qualité des interactions mère-enfant influence le développement de la fonction exécutive (FE) chez les enfants d’âge préscolaire. Ces recherches se sont attardées à la dimension « froide » de la FE qui regroupe les habiletés de prise de décisions générales en situation de résolution de problèmes. Cette recherche s’intéresse à l’autre dimension de la FE, les cognitions « chaudes », qui entrent en jeu lorsque la prise de décisions en situation de résolution de problèmes implique une charge émotionnelle. Cette dimension joue un rôle dans la prise de décisions affectives (PDA). Les études empiriques qui portent sur la PDA ont principalement regardé les liens avec le sexe et l’âge des enfants ainsi que les relations avec les facteurs neurologiques. Aucune étude à notre connaissance n’a examiné les liens avec la qualité des interactions mère-enfant. L’exploration empirique de la contribution des facteurs environnementaux proximaux de l’enfant, tel que le soutien affectif maternel, reste à faire. Dans un premier temps, cette recherche examine l’effet du soutien affectif maternel sur la PDA globale. Dans un deuxième temps, l’effet du sexe et l’effet d’interaction entre la qualité du soutien affectif maternel et les profils d’apprentissage des enfants de 48 mois sont examinés. Enfin, cette étude examine cent quatre-vingt-onze enfants (109 filles et 82 garçons) et leur mère qui ont participé à une journée d'évaluation en laboratoire dans le cadre de l’Étude Longitudinale sur le Développement des Enfants du Québec - groupe Pilote (ELDEQ-P, Santé Québec, 1997). Ils ont réalisé différentes activités permettant de les évaluer en dyade ou individuellement. La PDA a été évaluée à l’aide du Children’s Gambling Task (CGT) (Kerr & Zelazo, 2001). Le soutien affectif maternel a été évalué à partir d’une tâche de récits narratifs co-construits entre la mère et l’enfant (MacArthur Story-Stem Battery (MSSB), Bretherton, Oppenheim, Buchsbaum, Emde & the MacArthur Narrative Group, 1990) et la grille d’évaluation du Climat affectif a été utilisée pour évaluer la qualité du soutien affectif maternel (Boutin, Parent, et Lapalme-L’Heureux, 1998). Nos résultats indiquent que la qualité du soutien affectif maternel n’a pas d’effet principal sur la PDA globale mais interagit avec les profils d’apprentissage des enfants en contexte de PDA. Cette interaction est toutefois significative uniquement chez les garçons. Les garçons qui reçoivent un soutien affectif maternel dans la moyenne ou élevé obtiennent un meilleur profil d’apprentissage en situation de PDA comparativement à ceux qui ont un soutien affectif maternel sous la moyenne. En outre, les résultats révèlent que les 26 enfants (12 garçons, 14 filles) qui ont abandonné en cours de tâche obtiennent des scores plus faibles sur la qualité du soutien affectif maternel. Ce résultat suggère que les enfants obtenant un faible soutien affectif maternel sont plus enclins à abandonner une tâche d’apprentissage en situation de PDA. En somme, les résultats de la présente étude suggèrent que la qualité des interactions mère-enfant est importante sur le développement d’habiletés cognitives en contexte émotionnel chez les enfants d’âge préscolaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seulement une minorité d’adolescents qui consomment des substances psychoactives développe des problèmes significatifs reliés à cette consommation. Il importe donc de connaître et de comprendre les processus par lesquels se développe la consommation problématique afin de pouvoir la prévenir. Cette étude examine le rôle des symptômes dépressifs et des relations sociales dans le développement de la consommation problématique à l’adolescence. Plus précisément, elle vise à déterminer, à l’aide d’un devis longitudinal corrélationnel prospectif, si le soutien des pairs, le soutien des parents et la qualité de la relation maître-élève ont des effets modérateurs protecteurs sur la relation entre les symptômes dépressifs et la consommation problématique. L’échantillon utilisé pour cette étude est tiré de la Stratégie d’Intervention Agir Autrement et comprend 4473 adolescents. Des régressions linéaires multiples ont été effectuées et ont démontré que les symptômes dépressifs et le soutien des parents augmentent le risque d’une consommation problématique, alors que le soutien des pairs le diminue. De plus, les résultats confirment le rôle protecteur du soutien des pairs, mais indiquent que le soutien des parents exacerbe le lien entre les symptômes dépressifs et la consommation problématique. Par ailleurs, la qualité de la relation maître-élève est associée à une consommation moins problématique uniquement chez les jeunes qui n’ont pas beaucoup de symptômes dépressifs. Les implications de ces résultats sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif principal: Il n’est pas démontré que les interventions visant à maîtriser voire modérer la médicamentation de patients atteints d’hypertension peuvent améliorer leur gestion de la maladie. Cette revue systématique propose d’évaluer les programmes de gestion contrôlée de la médicamentation pour l’hypertension, en s’appuyant sur la mesure de l’observance des traitements par les patients (CMGM). Design: Revue systématique. Sources de données: MEDLINE, EMBASE, CENTRAL, résumés de conférences internationales sur l’hypertension et bibliographies des articles pertinents. Méthodes: Des essais contrôlés randomisés (ECR) et des études observationnelles (EO) ont été évalués par 2 réviseurs indépendants. L’évaluation de la qualité (de ce matériel) a été réalisée avec l’aide de l’outil de Cochrane de mesure du risque de biais, et a été estimée selon une échelle à quatre niveaux de qualité Une synthèse narrative des données a été effectuée en raison de l'hétérogénéité importante des études. Résultats: 13 études (8 ECR, 5 EO) de 2150 patients hypertendus ont été prises en compte. Parmi elles, 5 études de CMGM avec l’utilisation de dispositifs électroniques comme seule intervention ont relevé une diminution de la tension artérielle (TA), qui pourrait cependant être expliquée par les biais de mesure. L’amélioration à court terme de la TA sous CMGM dans les interventions complexes a été révélée dans 4 études à qualité faible ou modérée. Dans 4 autres études sur les soins intégrés de qualité supérieure, il n'a pas été possible de distinguer l'impact de la composante CMGM, celle-ci pouvant être compromise par des traitements médicamenteux. L’ensemble des études semble par ailleurs montrer qu’un feed-back régulier au médecin traitant peut être un élément essentiel d’efficacité des traitements CMGM, et peut être facilement assuré par une infirmière ou un pharmacien, grâce à des outils de communication appropriés. Conclusions: Aucune preuve convaincante de l'efficacité des traitements CMGM comme technologie de la santé n’a été établie en raison de designs non-optimaux des études identifiées et des ualités méthodologiques insatisfaisantes de celles-ci. Les recherches futures devraient : suivre les normes de qualité approuvées et les recommandations cliniques actuelles pour le traitement de l'hypertension, inclure des groupes spécifiques de patients avec des problèmes d’attachement aux traitements, et considérer les résultats cliniques et économiques de l'organisation de soins ainsi que les observations rapportées par les patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À partir des années 1960, avec l’apparition d’un « nous » québécois territorialement défini, intellectuels et groupes de pression se mettent à construire le « problème » de la sous-représentation des autochtones dans l’enseignement de l’histoire nationale à l’école au Québec. Nous comparons la place de ce « problème » à l’agenda des concepteurs des deux derniers programmes d’enseignement de l’histoire nationale à l’école secondaire au Québec : Histoire du Québec et du Canada (1982-2008) et Histoire et éducation à la citoyenneté (2007/2008-). Nous montrons que ce « problème » n’a été inscrit avec proéminence qu’à l’agenda des concepteurs du nouveau programme. Comment expliquer cette différence entre l’agenda des concepteurs de ces deux programmes? En se basant sur l’approche des courants multiples développé par John Kingdon, nous montrons qu’à partir des années 1990, tous les éléments étaient réunis pour favoriser la mise à l’agenda de ce « problème » - courant des problèmes, courant des solutions, courant de la politique, entrepreneur politique et fenêtre d’opportunité. Par contraste, nous arguons qu’à la fin des années 1970, un élément manquait : le courant de la politique, et en particulier le « national mood ». Pour rendre ce concept moins a-historique, nous déclinons le « national mood » en trois niveaux hiérarchiques de croyances, selon la typologie de Sabatier et Jenkins-Smith (1993). Nous montrons qu’il y a eu un changement au niveau des croyances les plus fondamentales et inaltérables des élites intellectuelles et politiques québécoises entre la fin des années 1970 et les années 1990 consistant à reconnaître les peuples autochtones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une morbidité et une mortalité néonatales élevées limitent l’efficacité du clonage somatique chez les bovins. Des malformations myoarthrosquelettiques, des anomalies ombilicales, des problèmes respiratoires et de la faiblesse ont été fréquemment observés chez les veaux clonés nouveaux-nés. Cette étude rétrospective porte sur 31 veaux clonés. Ses objectifs étaient de décrire les problèmes respiratoires rencontrés, leur évolution au cours du temps, les traitements instaurés pour soutenir la fonction respiratoire et la réponse aux traitements. Vingt-deux veaux ont souffert de problèmes respiratoires. La tachypnée, l’hypoxémie et l’hypercapnie sont les signes cliniques les plus fréquemment observés. L’analyse des gaz sanguins a été un outil essentiel dans le diagnostic et le suivi de la fonction respiratoire. La radiographie a permis une évaluation globale du poumon. L’oxygénothérapie intranasale et la ventilation mécanique ont permis de limiter la mortalité due à une insuffisance respiratoire à 18% (4/22). Cette étude a permis d’émettre des hypothèses quant à l’origine des problèmes respiratoires chez les veaux clonés. Plus d’une maladie semblent affecter les veaux clonés. La déficience en surfactant, l’hypertension pulmonaire persistante et le retard de résorption du fluide pulmonaire figurent parmi les entités pathologiques les plus probables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception heideggérienne du « cercle de la compréhension » exposée aux §§ 31 et 32 de Sein und Zeit est bien connue et a souvent été analysée, notamment par Hans-Georg Gadamer dans Vérité et méthode (1960) et Jean Greisch dans son commentaire de Sein und Zeit (1994). Mais on a trop peu vu que la théorie du cercle herméneutique déterminait aussi la conception heideggérienne de la philosophie. Notre recherche s’efforcera de le montrer et d’expliquer pourquoi il en est ainsi. Au plan de la méthodologie, nous proposerons, en nous inspirant des commentateurs les plus autorisés (Greisch, Gadamer, Courtine, et al.), un commentaire serré des §§ 31 et 32 de Sein und Zeit, sans oublier le § 63 où Heidegger souligne lui-même la « situation herméneutique » de sa propre enquête, ni le § 68 où se trouve mise en évidence la dimension temporelle du cercle de la compréhension. Nous tâcherons ensuite de montrer en quoi ce cercle affecte la conception heideggérienne de la philosophie telle que présentée au § 7 de Sein und Zeit et dans d’autres textes de Heidegger tels que Les problèmes fondamentaux de la phénoménologie (GA 24).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est une analyse et une reconstruction interprétative de la centurie de Calliste Cataphygiotès, intitulée De l'union avec Dieu et de la vie contemplative, chapitres syllogistiques et hauts. Notre approche à ce texte pluridisciplinaire est prioritairement philosophique. Dans le but de mettre en valeur l'intérêt philosophique qu'il représente, nous avons concentré notre analyse sur les problèmes liés au rapport de l'intellect avec l'Un, sur l'étude du concept de l'infini, sur son rôle dans la contemplation et sur la méthode dialectique dont Calliste Cataphygiotès s'en sert. Nous avons reconstruit la doctrine de la contemplation, implicite au texte de Calliste et nous avons tenté une reconstruction globale de la centurie qui permettra au lecteur d'apprécier les qualités spéculatives et l'esprit synthétique de ce mystique byzantin presque inconnu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, près de 25 000 personnes, principalement des aînés, sont touchées par la maladie de Parkinson (MP), la majorité étant soignée par leur conjoint. Au stade modéré, la MP altère la santé et la qualité de vie de ces couples. Ce stade est propice à la mise en place d’interventions dyadiques, car les couples expérimentent des pertes croissantes, nécessitant plusieurs ajustements. Néanmoins, aucune étude n’avait encore examiné leurs besoins d’intervention lors de cette transition et peu d’interventions pour les soutenir ont fait l’objet d’études évaluatives. Avec comme cadre de référence la théorie de l’expérience de transition de Meleis et al. (2000) et l’approche systémique de Wright et Leahey (2009), cette étude visait à développer, mettre à l’essai et évaluer une intervention auprès de couples âgés vivant avec la MP au stade modéré. À cette fin, un devis qualitatif et une approche participative ont été privilégiés. L’élaboration et l’évaluation de l’intervention s’appuient sur le cadre méthodologique d’Intervention Mapping de Bartholomew et al. (2006) et sur les écrits de Miles et Huberman (2003). L’étude s’est déroulée dans une clinique ambulatoire spécialisée dans la MP. Dix couples et quatre intervenants ont collaboré à la conceptualisation de l’intervention. Trois nouveaux couples en ont fait l’expérimentation et l’évaluation. L’intervention dyadique compte sept rencontres de 90 minutes, aux deux semaines. Les principaux thèmes, les méthodes et les stratégies d’intervention sont basés sur les besoins et les objectifs des dyades ainsi que sur des théories et des écrits empiriques. L’intervention est orientée vers les préoccupations des dyades, la promotion de la santé, la résolution de problèmes, l’accès aux ressources, la communication et l’ajustement des rôles. Les résultats de l’étude ont montré la faisabilité, l’acceptabilité et l’utilité de l’intervention. Les principales améliorations notées par les dyades sont l’adoption de comportements de santé, la recherche de solutions ajustées aux situations rencontrées et profitables aux deux partenaires, la capacité de faire appel à des services et l’accroissement des sentiments de maîtrise, de soutien mutuel, de plaisir et d’espoir. Cette étude fournit des pistes aux infirmières, engagées dans différents champs de pratique, pour développer et évaluer des interventions dyadiques écologiquement et théoriquement fondées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les métaux lourds (ML) s’accumulent de plus en plus dans les sols à l’échelle mondiale, d’une part à cause des engrais minéraux et divers produits chimiques utilisés en agriculture intensive, et d’autre part à cause des activités industrielles. Toutes ces activités génèrent des déchets toxiques qui s’accumulent dans l’environnement. Les ML ne sont pas biodégradables et leur accumulation cause donc des problèmes de toxicité des sols et affecte la biodiversité des microorganismes qui y vivent. La fertilisation en azote (N) est une pratique courante en agriculture à grande échelle qui permet d’augmenter la fertilité des sols et la productivité des cultures. Cependant, son utilisation à long terme cause plusieurs effets néfastes pour l'environnement. Par exemple, elle augmente la quantité des ML dans les sols, les nappes phréatiques et les plantes. En outre, ces effets néfastes réduisent et changent considérablement la biodiversité des écosystèmes terrestres. La structure des communautés des champignons mycorhiziens à arbuscules (CMA) a été étudiée dans des sols contaminés par des ML issus de la fertilisation à long terme en N. Le rôle des différentes espèces de CMA dans l'absorption et la séquestration des ML a été aussi investigué. Dans une première expérience, la structure des communautés de CMA a été analysée à partir d’échantillons de sols de sites contaminés par des ML et de sites témoins non-contaminés. Nous avons constaté que la diversité des CMA indigènes a été plus faible dans les sols et les racines des plantes récoltées à partir de sites contaminés par rapport aux sites noncontaminés. Nous avons également constaté que la structure de la communauté d'AMF a été modifiée par la présence des ML dans les sols. Certains ribotypes des CMA ont été plus souvent associés aux sites contaminés, alors que d’autres ribotypes ont été associés aux sites non-contaminés. Cependant, certains ribotypes ont été observés aussi bien dans les sols pollués que non-pollués. Dans une deuxième expérience, les effets de la fertilisation organique et minérale (N) sur les différentes structures des communautés des CMA ont été étudiés. La variation de la structure de la communauté de CMA colonisant les racines a été analysée en fonction du type de fertilisation. Certains ribotypes de CMA étaient associés à la fertilisation organique et d'autres à la fertilisation minérale. En revanche, la fertilisation minérale a réduit le nombre de ribotypes de CMA alors que la fertilisation organique l’a augmenté. Dans cette expérience, j’ai démontré que le changement de structure des communautés de CMA colonisant des racines a eu un effet significatif sur la productivité des plantes. Dans une troisième expérience, le rôle de deux espèces de CMA (Glomus irregulare et G. mosseae) dans l'absorption du cadmium (Cd) par des plants de tournesol cultivés dans des sols amendés avec trois niveaux différents de Cd a été évalué. J’ai démontré que les deux espèces de CMA affectent différemment l’absorption ou la séquestration de ce ML par les plants de tournesol. Cette expérience a permis de mieux comprendre le rôle potentiel des CMA dans l'absorption des ML selon la concentration de cadmium dans le sol et les espèces de CMA. Mes recherches de doctorat démontrent donc que la fertilisation en N affecte la structure des communautés des CMA dans les racines et le sol. Le changement de structure de la communauté de CMA colonisant les racines affecte de manière significative la productivité des plantes. J’ai aussi démontré que, sous nos conditions expériemntales, l’espèce de CMA G. irregulare a été observée dans tous les sites (pollués et non-pollués), tandis que le G. mosseae n’a été observé en abondance que dans les sites contaminés. Par conséquent, j’ai étudié le rôle de ces deux espèces (G. irregulare et G. mosseae) dans l'absorption du Cd par le tournesol cultivé dans des sols amendés avec trois différents niveaux de Cd en serre. Les résultats indiquent que les espèces de CMA ont un potentiel différent pour atténuer la toxicité des ML dans les plantes hôtes, selon le niveau de concentration en Cd. En conclusion, mes travaux suggèrent que le G. irregulare est une espèce potentiellement importante pour la phytoextration du Cd, alors que le G. mosseae pourrait être une espèce appropriée pour phytostabilisation du Cd et du Zn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.