47 resultados para Praxiologia motive


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méditation par le ‘mindfulness’ favorise la stabilité émotionelle, mais les mécanismes neuroneux qui sous-tendent ces effets sont peu connus. Ce projet investiga l’effet du ‘mindfulness’ sur les réponses cérébrales et subjectives à des images négatives, positives et neutres chez des méditants expérimentés et des débutants au moyen de l’imagerie par résonance magnétique fonctionnelle (IRMf). Le ‘mindfulness’ atténua l’intensité émotionelle via différents mécanismes cérébraux pour chaque groupe. Comparés aux méditants, les débutants manifestèrent une déactivation de l’amygdale en réponse aux stimuli émotifs durant le ‘mindfulness’. Comparés aux débutants, les méditants exhibèrent une déactivation de régions du réseau du mode par défaut (RMD) pendant le ‘mindfulness’ pour tous stimuli (cortex médian préfrontal [CMP], cortex cingulaire postérieur [CCP]). Le RMD est constitué de régions fonctionnellement connectées, activées au repos et déactivées lors de tâches explicites. Cependant, nous ne connaissons pas les impacts de l’entraînement par la méditation sur la connectivité entre régions du RMD et si ces effets persistent au-delà d’un état méditatif. La connectivité fonctionnelle entre régions du RMD chez les méditants et débutants au repos fut investiguée au moyen de l’IRMf. Comparés aux débutants, les méditants montrèrent une connectivité affaiblie entre subdivisions du CMP, et une connectivité accrue entre le lobule pariétal inférieur et trois regions du RMD. Ces résultats reflètent que les bienfaits immédiats du ‘mindfulness’ sur la psychopathologie pourraient être dûs à une déactivation de régions limbiques impliquées dans la réactivité émotionelle. De plus, les bienfaits à long-terme de la méditation sur la stabilité émotionelle pourrait être dûs à une déactivation de régions corticales et cingulaires impliquées dans l’évaluation de la signification émotive et une connectivité altérée entre régions du RMD à l’état de repos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comment le motif de la marque insensible du diable a-t-il pu se frayer un chemin au sein du discours théologique, juridique et médical de la fin de la Renaissance jusqu'à s'imposer comme une pièce essentielle du crime de sorcellerie? Selon quels mécanismes et à partir de quels systèmes de croyance cette marque corporelle en est-elle venue à connaître une si large diffusion et une aussi grande acceptation tant chez les gens du livres que parmi les couches populaires? En cette époque marquée par la grande chasse aux sorcières et le développement de l'investigation scientifique, l'intérêt que les savants portent à cette étrange sémiologie constitue une porte d'accès privilégiée pour aborder de front la dynamique du déplacement des frontières que la démonologie met en oeuvre au sein des différents champs du savoir. Cette thèse a pour objectif d'étudier le réseau des mutations épistémologiques qui conditionne l'émergence de la marque du diable dans le savoir démonologique français à la charnière des XVIe et XVIIe siècles. Nous examinerons par quels cheminements l'altérité diabolique s'est peu à peu intériorisée dans le corps et l'âme des individus sous l'influence grandissante des vertus de l'empirisme, de la méthode expérimentale et de l'observation. En analysant la construction rhétorique de la théorie des marques du diable et en la reliant aux changements qui s'opèrent sur la plateforme intellectuelle de l'Ancien Régime, nous entendons éclairer la nouvelle distribution qui s'effectue entre les faits naturels et surnaturels ainsi que les modalités d'écriture pour en rendre compte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire vise à comprendre les motivations des États à intervenir militairement dans un autre État pour mettre fin aux violations graves des droits de l’homme tel que le nettoyage ethnique et le génocide. Plus précisément, nous cherchons à comprendre pourquoi il y a eu une variation dans la position américaine face aux cas de génocide au Rwanda en 1994, au Kosovo en 1999 et au Darfour de 2003 à 2008. À partir d’une approche réaliste en Relations Internationales qui met l’accent sur l’intérêt national égoïste comme facteur principal explicatif du comportement des États, nous procédons à l’étude des cas de la position américaine lors de trois crises humanitaires. Plus précisément, nous cherchons à comprendre la non intervention des États-Unis lors du génocide des Tutsis au Rwanda en 1994, l’intervention américaine au Kosovo en 1999, et enfin la non intervention américaine au Darfour de 2003 à 2008. En somme, nos études de cas démontrent que c’est l’intérêt national qui motive les États d’intervenir ou de ne pas intervenir lors des cas de nettoyage ethnique ou de génocide. D’une part, lors du génocide des Tutsis au Rwanda en 1994, les États-Unis ne sont pas intervenus car l’intérêt national interprété comme le repli sur les affaires internes américaines ne serait pas maximisé par l’intervention militaire. Ensuite, l’intervention des États-Unis et de l’OTAN au Kosovo en 1999 est expliquée par l’intérêt national américain dans un contexte de l’après guerre froide d’approfondir son engagement sécuritaire en Europe et de préserver sa position hégémonique et son prestige sur la scène internationale, d’assurer la stabilité régionale et de préserver la crédibilité de l’OTAN. Finalement, l’intérêt national défini en termes de sécurité dans un contexte de la guerre au terrorisme explique la non intervention américaine au Darfour de 2003 à 2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée dans le cadre d'une cotutelle avec l'Université Paul Cézanne Aix-Marseille III

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche a bénéficié du soutien de plusieurs organismes. D’abord, je remercie le Conseil de recherche en sciences humaines du Canada (CRSH) de m’avoir accordé la bourse J.A. Bombardier – bourse de recherche pour la maitrise. Je remercie également le département de philosophie pour les quelques bourses de recherche et de voyage qui m’ont été offertes au cours de mes études de deuxième cycle au département. Je tiens finalement à exprimer ma gratitude envers le Groupe de recherche interuniversitaire en philosophie politique (GRIPP) pour son soutient financier ainsi que pour l’expérience enrichissante qu’il m’a promulgué. Une partie de ce mémoire a été présentée en avril 2012 à la Graduate Conference on Global Justice, tenue à la Gallatin School, New York University.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur la qualité d’emploi chez les nouveaux diplômés des études postsecondaires au Canada. Elle est motivée par les nombreux bouleversements vécus par le marché du travail, la pénurie de main-d’oeuvre qualifiée et le fait que deux Canadiens sur trois sont directement concernés par la qualité d’emploi. En s’appuyant sur la typologie de Cloutier (2008), nous nous sommes fixé deux objectifs. Le premier vise à examiner l’évolution de la qualité d’emploi des nouveaux diplômés postsecondaires au Canada entre 1992 et 2007. Le deuxième objectif consiste à évaluer l’influence du niveau d’études, du domaine d’études et du sexe des nouveaux diplômés sur la qualité de leur emploi. L’analyse est de type empirique qui s’appuie sur les données de l’Enquête nationale auprès des diplômés réalisée auprès des promotions de 1990 et de 2005 par Statistiques Canada. Concernant le premier objectif, nos résultats indiquent que les dimensions rémunération, stabilité d’emploi et qualification se sont affaiblies en 2007 comparativement à 1992. Quant au deuxième objectif, nous avons trouvé que le niveau d’études et le domaine d’études sont des déterminants importants des quatre dimensions de la qualité d’emploi considérées. Un niveau d’études élevé augmente la rémunération annuelle et la probabilité d’occuper un emploi à temps plein. À l’opposé, la probabilité d’occuper un emploi qualifié et celle d’avoir un emploi permanent sont négativement associées au niveau d’études. Par ailleurs, il ressort de nos résultats que le marché du travail valorise particulièrement les domaines qui permettent aux étudiants d’acquérir des compétences professionnelles. La rémunération, les chances d’occuper un travail à temps plein et la probabilité d’accéder à un emploi qualifié sont relativement plus élevées pour les finissants dans ces domaines. Concernant l'impact du sexe, les résultats obtenus indiquent qu’il n’est pas statistiquement significatif dans le cas des dimensions de la stabilité d’emploi et de l’accès à un emploi qualifié. Néanmoins, les hommes gagnent en moyenne plus que les femmes et sont plus susceptibles d’occuper un emploi à temps plein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le respect  de la vie privée est garanti dans presque tous les pays du monde, dont la République Démocratique du Congo. Les textes juridiques internes et internationaux qui assurent la protection de la vie privée ont généralement été édictés à une époque où l'on ne pouvait tenir compte de l’avènement des inforoutes. Cet article tend à rechercher, autant que faire se peut, les divers formes de violations de la vie privée pouvant être commises sur les réseaux numériques et les mécanismes de protection y relatifs. Sont abordées, en premier lieu, les violations effectuées par les pouvoirs publics. Nombreuses sont les atteintes à la vie privée autorisées par les normes juridiques étatiques pour raison de sécurité publique. Il en est ainsi des perquisitions électroniques, des visites de lieux et des saisies opérées par des agents des services étatiques porteurs des titres réguliers et dans le strict respect tant de la procédure que des lois. Toutefois, il arrive que les agents d'État débordent le cadre de l’objet de leur mission ou agissent sans titre régulier. Du côté des atteinte perpétrées par les personnes privées, l'on pourra citer, à titre indicatif, la commission des délits de presse et la violation du secret professionnel, la prise de connaissance ou la soustraction frauduleuse des données à caractère personnel. Ces atteintes procèdent de divers fondements, parmi lesquels on retrouvera les conceptions libertaires, les intérêts égoïstes, l’ignorance des législations étrangères, le principe de la liberté de l’information, les raisons scientifiques ou celles d’ordre public. Un certain nombre de mécanismes juridiques permet néanmoins de combattre ou de réfréner les violations de la vie privée. Tout semble graviter autour de la mise en œuvre d’une procédure pouvant enclencher des sanctions pénales, civiles, disciplinaires ou administratives, hormis l’existence de certains mécanismes de protection particuliers tel que le droit de réponse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les voies d'administration qui provoquent une entrée rapide de la drogue au cerveau sont connues pour faciliter le développement de la toxicomanie. Les études animales modélisant cet effet ont montré que des rats, qui ont un accès prolongé à des injections intraveineuses rapides de cocaïne (injectée en 5 ou 90 secondes), s'autoadministrent plus de drogue, ont un entraînement opérant plus élevé et sont subséquemment plus motivés à obtenir la cocaïne. La question est maintenant de savoir comment l'autoadministration de cocaïne injectée rapidement promeut une augmentation de la motivation à obtenir de la cocaïne. Cette motivation exagérée pourrait être une conséquence de l'exposition prolongée à de larges quantités de cocaïne et/ou de l'effet persistant d'un entraînement opérant extensif. De plus, on sait qu'augmenter la vitesse d'administration de la cocaïne modifie les circuits de la récompense et de la motivation. Ainsi, ceci pourrait promouvoir la motivation excessive pour la drogue. Nous avons cherché à déterminer l'influence de l'exposition à la drogue et de l'entraînement opérant sur le développement d'une motivation exacerbée pour la drogue. Les rats se sont autoadministrés de la cocaïne injectée en 5 ou 90 secondes (s) durant un accès limité (1h/session) ou prolongé (6h/session) avec un ratio fixe. La motivation pour la cocaïne a par la suite été évaluée à l'aide d'un ratio progressif (PR). Les rats ayant reçu la drogue injectée en 5 s durant l'accès prolongé (par rapport au groupe 90 secondes) ont pris plus de drogue et eu un entraînement opérant plus extensif alors qu'il n'y avait pas de différences dans la consommation et le niveau d'entraînement opérant entre les groupes ayant subit un accès limité uniquement. Les rats ayant consommé la drogue injectée en 5s, indépendamment du temps d'accès, ont toujours exprimé une motivation plus grande pour la drogue en PR. La quantité de cocaïne consommée ou l'ampleur de l'entraînement opérant ont été positivement corrélés avec la consommation de cocaïne en PR dans certains groupes. Par contre, le groupe qui a eu un accès prolongé aux injections rapides a montré une augmentation dans sa motivation à s'autoadministrer de la drogue qui n'était prédite ni par la quantité de cocaïne consommée ni par l'étendue de l'entraînement opérant. Ces résultats suggèrent que des injections rapide de cocaïne pourraient faciliter la toxicomanie en favorisant entre autre des modifications neurobiologiques qui mènent à une motivation pathologique pour la drogue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte De nombreuses études, utilisant des indicateurs de qualité variés, ont démontré que la qualité des soins pour la dépression n’est pas optimale en première ligne. Peu de ces études ont examiné les facteurs associés à la réception d’un traitement adéquat, en particulier en tenant compte simultanément des caractéristiques individuelles et organisationnelles. L'association entre un traitement adéquat pour un épisode dépressif majeur (EDM) et une amélioration des symptômes dépressifs n'est pas bien établie dans des conditions non-expérimentales. Les objectifs de cette étude étaient de : 1) réaliser une revue systématique des indicateurs mesurant la qualité du traitement de la dépression en première ligne ; 2) estimer la proportion de patients souffrant d’EDM qui reçoivent un traitement adéquat (selon les guides de pratique clinique) en première ligne ; 3) examiner les caractéristiques individuelles et organisationnelles associées à l’adéquation du traitement pour la dépression ; 4) examiner l'association entre un traitement minimalement adéquat au cours des 12 mois précédents et l'évolution des symptômes dépressifs à 6 et 12 mois. Méthodes La littérature sur la qualité du traitement de la dépression a été examinée en utilisant un ensemble de mots-clés (« depression », « depressive disorder », « quality », « treatment », « indicator », « adequacy », « adherence », « concordance », « clinical guideline » et « guideline ») et « 360search », un moteur de recherche fédérée. Les données proviennent d'une étude de cohorte incluant 915 adultes consultant un médecin généraliste, quel que soit le motif de consultation, répondant aux critères du DSM-IV pour l’EDM dans la dernière année, nichés dans 65 cliniques de première ligne au Québec, Canada. Des analyses multiniveaux ont été réalisées. Résultats Bien que majoritairement développés à partir de guides de pratique clinique, une grande variété d'indicateurs a été observée dans la revue systématique de littérature. La plupart des études retenues ont utilisé des indicateurs de qualité rudimentaires, surtout pour la psychothérapie. Les méthodes utilisées étaient très variées, limitant la comparabilité des résultats. Toutefois, quelque soit la méthode choisie, la plupart des études ont révélé qu’une grande proportion des personnes souffrant de dépression n’ont pas reçu de traitement minimalement adéquat en première ligne. Dans notre échantillon, l’adéquation était élevée (> 75 %) pour un tiers des indicateurs de qualité mesurés, mais était faible (< 60 %) pour près de la moitié des mesures. Un peu plus de la moitié de l'échantillon (52,2 %) a reçu au moins un traitement minimalement adéquat pour la dépression. Au niveau individuel, les jeunes adultes (18-24 ans) et les personnes de plus de 65 ans avaient une probabilité moins élevée de recevoir un traitement minimalement adéquat. Cette probabilité était plus élevée pour ceux qui ont un médecin de famille, une assurance complémentaire, un trouble anxieux comorbide et une dépression plus sévère. Au niveau des cliniques, la disponibilité de la psychothérapie sur place, l'utilisation d'algorithmes de traitement, et le mode de rémunération perçu comme adéquat étaient associés à plus de traitement adéquat. Les résultats ont également montré que 1) la réception d'au moins un traitement minimalement adéquat pour la dépression était associée à une plus grande amélioration des symptômes dépressifs à 6 et à 12 mois; 2) la pharmacothérapie adéquate et la psychothérapie adéquate étaient toutes deux associées à de plus grandes améliorations dans les symptômes dépressifs, et 3) l'association entre un traitement adéquat et l'amélioration des symptômes dépressifs varie en fonction de la sévérité des symptômes au moment de l'inclusion dans la cohorte, un niveau de symptômes plus élevé étant associé à une amélioration plus importante à 6 et à 12 mois. Conclusions Nos résultats suggèrent que des interventions sont nécessaires pour améliorer la qualité du traitement de la dépression en première ligne. Ces interventions devraient cibler des populations spécifiques (les jeunes adultes et les personnes âgées), améliorer l'accessibilité à la psychothérapie et à un médecin de famille, et soutenir les médecins de première ligne dans leur pratique clinique avec des patients souffrant de dépression de différentes façons, telles que le développement des connaissances pour traiter la dépression et l'adaptation du mode de rémunération. Cette étude montre également que le traitement adéquat de la dépression en première ligne est associé à une amélioration des symptômes dépressifs dans des conditions non-expérimentales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les naines brunes sont, en termes de masse, les objets astrophysiques intermédiaires entre les planètes géantes gazeuses et les étoiles de faible masse. Elles se forment de la même manière que les étoiles, par contraction gravitationnelle d’un fragment de nuage de gaz moléculaire ayant atteint la limite de Jeans, mais se différencient par leur incapa- cité à produire les réactions de fusion de l’hydrogène dans leur cœur. Les naines brunes sont par conséquent des objets qui se refroidissent graduellement, et dont les propriétés spectrales évoluent au cours du temps. Ce mémoire présente la recherche de nouvelles candidates de type spectral T tardif et Y, dans le but de compléter le relevé des naines brunes du voisinage solaire. Cette recherche est motivée par deux objectifs principaux. Premièrement, un échantillon com- plet des objets de faible masse est nécessaire pour contraindre correctement la limite aux faibles masses de la fonction de masse initiale des nuages interstellaires, problème clé en astrophysique actuellement. Deuxièmement, les naines brunes de types spectraux tardifs sont les objets stellaires dont les propriétés atmosphériques sont les plus semblables à celles des planètes géantes gazeuses. Par conséquent, la recherche de nouvelles naines brunes permet indirectement d’améliorer nos connaissances des exoplanètes, sans être contraints par la proximité d’étoiles brillantes. À partir du WISE All-Sky Source Catalog, nous avons établi un échantillon de 55 candidates naines brunes répondant aux critères photométriques attendus. Parmi ces can- didates, 17 ont fait l’objet d’un suivi photométrique en bande J à l’Observatoire du Mont-Mégantic, et 9 ont pu être détectées. De ces 9 détections, 4 objets présentent des mouvements propres cohérents avec ceux de naines brunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature sur l’électrophysiologie des émotions ne semble pas trouver de consensus. Certaines études démontrent que les gens réagissent davantage à des stimuli de valence positive, tandis que d’autres concluent le contraire. L’objectif principal de ce mémoire est de vérifier les effets de la variable relationnelle sur les réactions physiologiques de sujets issus de la population étudiante. C’est-à-dire, les réactions physiologiques sont-elles influencées uniquement par la valence affective des différentes émotions ou s’ils sont également influencés par le contexte relationnel des stimuli? Le second objectif du projet de recherche proposé est de vérifier s’il existe un effet d’interaction entre la qualité affective des schémas relationnels des participants et la nature relationnelle ou non des stimuli. Pour ce faire, le rythme cardiaque a été pris sur 16 sujets divisés en 2 groupes, basés sur leurs résultats au TAT, analysés sur l’échelle de la tonalité affective du SCORS. Finalement, un troisième objectif est de comparer l’expérience subjective des participants aux mesures physiologiques obtenues. Les résultats démontrent que les gens réagissent davantage aux scénarios non relationnels que ceux relationnels. De plus, les grandes tailles d’effet des deux groupes (tonalité affective haute et basse) semblent indiquer l’importance de prendre en considération cette variable dans de futures recherches. Finalement, d’autres études, notamment avec de plus grands échantillons, seront nécessaires pour montrer l’importance de la qualité relationnelle dans l’expérience émotive.