514 resultados para Méthode de recherche Parse


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectifs: Le dosage des biomarqueurs du liquide céphalorachidien (LCR) ne fait pas partie des recommandations de la démarche diagnostique de la maladie d'Alzheimer (MA) en France. Nous voulions analyser l'apport de leur dosage en pratique clinique quotidienne. Matériel et méthode: Étude rétrospective observationnelle, portant sur l'ensemble des dosages de biomarqueurs du LCR de la MA effectués entre le 1er novembre 2010 et le 30 septembre 2012 dans l'hôpital de jour (HDJ) et le service dedecine interne gériatrique (SMIG) du centre mémoire de ressources et de recherche (CMRR) des hôpitaux universitaires de Strasbourg (Alsace, France). Résultats: Quatre-vingt-dix-sept patients (femmes : 60,8 % ; âge moyen : 80 ± 6,5 ans) ont été considérés. En HDJ (n = 50), les biomarqueurs étaient utilisés pour le diagnostic positif de MA (64,0 %) ou le diagnostic différentiel entre les démences (36,0 %). Au SMIG (n = 47), leur dosage était effectué afin de confirmer une MA (19,1 %), de rechercher une pathologie cognitive sous-jacente à un syndrome confusionnel (17,0 %) ou pour diagnostiquer une démence chez des patients atteints de pathologies psychiatriques (29,8 %). Si 49,5 % des patients ont eu un diagnostic de MA confirmée, les biomarqueurs ont contribué à infirmer cette étiologie dans 9,2 % des cas. Le doute entre une MA et une autre étiologie persistait cependant encore chez 10 patients. Les analyses comparatives des taux des différents biomarqueurs ont montré que la protéine tau est observée avec un taux significativement plus élevé dans la MA que dans la démence vasculaire (p = 0,003) et à la limite de la significativité pour la maladie de Parkinson (p = 0,06). Le profil observé avec la Ptau est similaire mais avec une significativité atteinte vis-à-vis de la démence de la maladie de Parkinson (p = 0,01). En ce qui concerne l'Aβ1-42, si les taux moyens étaient les plus élevés dans les démences vasculaire et à corps de Lewy, (p < 0,0001 et p < 0,01), ils étaient plus faibles en cas de démence de la maladie de Parkinson mais sans atteindre le seuil de signification (p = 0,12). Conclusion: Cette étude a analysé l'utilisation des biomarqueurs de la MA en pratique courante. Si leur intérêt se positionne actuellement dans le diagnostic de la MA à un stade léger, ces biomarqueurs montrent leur utilité dans les situations où le diagnostic clinique est rendu difficile par un trouble psychiatrique et/ou une confusion, une clinique atypique où lorsque les tests cognitifs sont irréalisables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La littérature sur les transitions, en particulier entre l'école obligatoire et l'école professionnelle ou l'école et la vie professionnelle, attire l'attention sur le fait que les parcours personnels sont aujourd'hui moins linéaires. Les transitions professionnelles sont alors décrites comme des moments de difficultés, de ruptures, de vulnérabilité pour les jeunes (Pagnossin & Armi, 2011 ; Rastoldo, Amos & Davaud, 2009). Dans notre domaine en psychologie « socioculturelle », si ces aspects ne sont pas négligés, l'accent est mis sur l'importance du travail de construction de sens par la personne : indépendamment des zigzags de sa vie, l'important est la mise en cohérence, les liens de sens qu'elle peut reconstruire entre les différentes sphères d'expériences qui constituent son identité. Et pour cela, les ressources sociales et institutionnelles (parents, enseignants, groupes de pairs, dispositifs de formation...) mais aussi matérielles et culturelles (chansons, poèmes, films, romans, récits, etc.) peuvent être très importantes (Masdonati & Zittoun, 2012 ; Zittoun, 2012). L'étude-intervention qui sera présentée dans ce document, réalisée auprès d'une classe d'apprentis de l'Ecole technique de Ste-Croix par un groupe d'étudiants en Master en psychologie (UniL), s'inscrit dans un mouvement plus large qui cherche à rendre compte du point de vue des acteurs (Muller Mirza & Perret-Clermont, 2015) liés à la question des transitions des jeunes : il s'agira ici de celui des apprentis eux-mêmes, de manière à explorer ce qu'ils vivent en termes de difficultés, de ressources utilisées et d'apprentissages réalisés, ainsi que celui des personnes qui les accompagnent dans ces processus, les enseignants. Cette étude visait non seulement à recueillir des informations auprès de ces personnes mais également à réaliser un travail de type réflexif, par la mise en place d'activités en classe destinées aux apprentis, basées sur le « récit de vie » comme outil psychologique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La vitesse de l'onde de pouls (VOP) est la méthode pour mesurer la rigidité artérielle la plus répandue et la plus validée. C'est aussi un prédicteur indépendant de la mortalité. La Matrix Gla- protein (MGP) est une protein qui inhibe les calcifications vasculaires. MGP nécessite une enzyme dérivée de la vitamine K pour être activée, à l'instar de certains facteurs de coagulation. La forme inactive de MGP, connue sous le terme de « desphospho-uncarboxylated MGP » (dp-ucMGP), peut-être mesurée dans le plasma. Plus les apports de vitamine K sont importants plus les taux de dp-ucMGP diminue. Les taux de dp-ucMGP ont déjà été étudiés et associés à différents marqueurs cardiovasculaires (CV), aux événements CV et à la mortalité. Dans notre travail de recherche nous avons émis l'hypothèse que des taux élevés de dp-ucMGP seraient associés à une VOP élevée. Nous avons recruté les participants à travers une étude multicentrique suisse (SKIPOGH). Le processus de recrutement ciblait des familles dans lesquelles plusieurs membres étaient d'accord de participer. Nous avons mesuré la dp-ucMGP plasmatique grâce à la méthode immuno-enzymatique « ELISA ». Concernant la VOP, nous avons mesuré les ondes de pression au niveau carotidien et fémorale grâce à un tonomètre et calculer la vitesse de leurs propagations. Par la suite nous avons utilisé un modèle de régression linéaire multiple afin de déterminer le lien entre la VOP et dp- ucMGP. Le modèle était ajusté pour l'âge, la fonction rénale et les risques CV classiques. Nous avons inclut 1001 participants dans les analyses (475 hommes et 526 femmes). La valeur moyenne de la VOP était de 7.87 ± 2.10 (m/s) et celle de dp-ucMGP de 0.43 ± 0.20 (nmol/L). La VOP était positivement et significativement associée à dp-ucMGP avant comme après ajustement pour le sexe, l'âge, l'indice de masse corporel, la taille, la pression artérielle systolique et diastolique, la fréquence cardiaque, la fonction rénale, les taux de cholestérol (LDL, HDL), la glycémie, la consommation de tabac, la présence d'un diabète, l'utilisation de médicaments antihypertenseurs ou hypolipémiants et la présence d'antécédents CV (P<0.01). En conclusion, des taux élevés de dp-ucMGP sont positivement et indépendamment associés à la rigidité artérielle après ajustement pour les facteurs de risques CV traditionnels, la fonction rénale et l'âge. Des études expérimentales sont nécessaires afin de déterminer si une supplémentation en vitamine K permet de ralentir l'avancement de la rigidité artérielle grâce à son activation de la MGP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse traite du rôle qu'un facteur de risque génétique développé chez les patients souffrant de schizophrénie, à savoir un déficit de la synthèse du glutathion, peut jouer dans les anomalies de la connectivité cérébrale trouvées chez ces patients. L'essentiel du travail a été consacré à évaluer la structure de la substance blanche dans l'ensemble du cerveau chez un modèle animal par une méthode similaire à celle utilisée en recherche clinique avec l'imagerie par résonance magnétique (IRM). Cette approche de translation inverse chez la souris knock-out de glutamate-cystéine ligase modulateur sous-unité (Gclm KO), avait l'objectif d'étudier l'effet des défenses redox déficientes sur le développement des connexions cérébrales, tout en excluant celui des facteurs non liés au génotype. Après avoir établi le protocole de recherche, l'influence d'une manipulation environnementale a également été étudiée. Pour effectuer une analyse statistique fiable des données d'IRM obtenues, nous .avons d'abord créé un atlas du cerveau de la souris afin de l'utiliser comme modèle pour une segmentation précise des différentes régions du cerveau sur les images IRM obtenues in vivo. Les données provenant de chaque région d'intérêt ont ensuite été étudiées séparément. La qualité de cette méthode a été évaluée dans une expérience de simulation pour déduire la puissance statistique réalisable dans chaque région en fonction du nombre d'animaux utilisés. Ces outils d'analyse nous ont permis d'évaluer l'intégrité de la substance blanche dans le cerveau des souris durant le développement grâce à une expérience longitudinale, en utilisant l'imagerie du tenseur de diffusion (DTI). Nous avons ainsi observé des anomalies dans les paramètres dérivés du tenseur (diffusivité et anisotropie) dans la Commissure Antérieure et le Fimbria/Fornix des souris Gclm KO, par rapport aux animaux contrôles. Ces résultats suggèrent une substance blanche endommagée dans ces régions. Dans une expérience électrophysiologique, Pascal Steullet a montré que ces anomalies ont des conséquences fonctionnelles caractérisées par une réduction de la vitesse de conduction dans les fibres nerveuses. Ces données renforcent les conclusions des analyses d'imagerie. Le mécanisme par lequel une dérégulation redox affecte la structure de la substance blanche reste encore à définir, car une analyse immunohistochimique des protéines constituantes de la couche de myéline des fibres concernées n'a pas donné de résultats concluants. Nous avons également constaté un élargissement des ventricules dans les jeunes souris Gclm KO, mais pas chez les adultes et des anomalies neurochimiques déjà connues chez ces animaux (Duarte et al. 2011), à savoir une réduction du Glutathion et une augmentation de l'acide N-acétylaspartique, de l'Alanine et du ratio Glutamine/Glutamate. Nous avons ensuite testé l'effet d'un stress environnemental supplémentaire, l'élevage en isolement social, sur le phénotype. Ce stress n'a eu aucun effet sur la structure de la substance blanche évaluée par DTI, mais a réduit la concentration de myo-Inositol et augmenté le ratio de Glutamine/Glutamate dans le cortex frontal. Nous avons aussi reproduit dans ce groupe indépendant d'animaux les effets du génotype sur le profil neurochimique, sur la taille des ventricules et aussi sur les paramètres dérivés du tenseur de diffusion dans le Fimbria/Fornix, mais pas dans la Commissure Antérieure. Nos résultats montrent qu'une dérégulation redox d'origine génétique perturbe la structure et la fonction de la substance blanche dans des régions spécifiques, causant ainsi l'élargissement des ventricules. Ces phénotypes rassemblent certaines caractéristiques neuro-anatomiques de la schizophrénie, mais les mécanismes qui en sont responsables demeurent encore inconnus. L'isolement social n'a pas d'effet sur la structure de la substance blanche évaluée par DTI, alors qu'il est prouvé qu'il affecte la maturation des oligodendrocytes. La neurochimie corticale et en particulier le rapport Glutamine/Glutamate a été affecté par le dérèglement redox ainsi que par l'isolement social. En conséquence, ce ratio représente un indice prometteur dans la recherche sur l'interaction du stress environnemental avec le déséquilibre redox dans le domaine de la schizophrénie. -- The present doctoral thesis is concerned with the role that a genetic risk factor for the development of schizophrenia, namely a deficit in Glutathione synthesis, may play in the anomalies of brain connectivity found in patients. Most of the effort was devoted to perform a whole-brain assessment of white matter structure in the Glutamate-Cysteine ligase modulatory knockout mouse model (Gclm KO) using Magnetic Resonance Imaging (MRI) techniques similar to those used in state-of-the-art clinical research. Such reverse translational approach taking brain imaging from the bedside to the bench aimed to investigate the role that deficient redox defenses may play in the development of brain connections while excluding all influencing factors beside the genotype. After establishing the protocol, the influence of further environmental manipulations was also studied. Analysis of MRI images acquired in vivo was one of the main challenges of the project. Our strategy consisted in creating an atlas of the mouse brain to use as segmentation guide and then analyze the data from each region of interest separately. The quality of the method was assessed in a simulation experiment by calculating the statistical power achievable in each brain region at different sample sizes. This analysis tool enabled us to assess white matter integrity in the mouse brain along development in a longitudinal experiment using Diffusion Tensor Imaging (DTI). We discovered anomalies in diffusivity parameters derived from the tensor in the Anterior Commissure and Fimbria/Fornix of Gclm KO mice when compared to wild-type animals, which suggest that the structure of these tracts is compromised in the KO mice. In an elegant electrophysiological experiment, Pascal Steullet has provided evidence that these anomalies have functional consequences in form of reduced conduction velocity in the concerned tracts, thus supporting the DTI findings. The mechanism by which redox dysregulation affects WM structure remains unknown, for the immunohistochemical analysis of myelin constituent proteins in the concerned tracts produced inconclusive results. Our experiments also detected an enlargement of the lateral ventricles in young but not adult Gclm KO mice and confirmed neurochemical anomalies already known to affect this animals (Duarte et al. 2011), namely a reduction in Glutathione and an increase in Glutamine/Glutamate ratio, N-acetylaspartate and Alanine. Using the same methods, we tested the effect of an additional environmental stress on the observed phenotype: rearing in social isolation had no effect on white matter structure as assessed by DTI, but it reduced the concentration of myo-Inositol and increased the Glutamine/Glutamate ratio in the frontal cortex. We could also replicate in this separate group of animals the effects of genotype on the frontal neurochemical profile, ventricular size and diffusivity parameters in the Fimbria/Fornix but not in the Anterior Commissure. Our data show that a redox dysregulation of genetic origin may disrupt white matter structure and function in specific tracts and cause a ventricular enlargement, phenotypes that resemble some neuroanatomical features of schizophrenia. The mechanism responsible remains however unknown. We have also demonstrated that environmental stress in form of social isolation does not affect white matter structure as assessed by DTI even though it is known to affect oligodendrocyte maturation. Cortical neurochemistry, and specifically the Glutamine to Glutamate balance was affected both by redox dysregulation and social isolation, and is thus a good target for further research on the interaction of redox imbalance and environmental stress in schizophrenia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce diplôme présente les marchés prédictifs, qui sont un moyen d'agréger l'information en utilisant les processus à la base des marchés financiers et en proposant des contrats à termes représentant la probabilité de survenance d'une proposition. Des publications dans le domaine de la finance, du management ou de l'informatique font référence à l'utilisation des marchés prédictifs et démontrent les bons résultats obtenus par cette méthode. Nous nous sommes demandé s'il était possible de concevoir et utiliser un tel marché dans un milieu académique, pour prédire l'émergence de nouvelles théories et applications dans le domaine des communications mobiles. Pour supporter notre réflexion, nous avons mis en place un prototype qui devrait pouvoir nous permettre de tester le concept, d'étudier les fonctions de calcul de prix et les mécanismes d'agrégation de l'information. Pour débuter, nous présentons l'état de l'art en nous appuyant sur la littérature parue depuis 1988 lorsque l'University of Iowa a lancé sa plate-forme Iowa Electronic Market (IEM) dans le cadre de l'élection présidentielle Bush-Dukakis. Depuis, plusieurs chercheurs se sont penchés sur les marchés prédictifs comme instrument de prévision dans de nombreux domaines: politique, sport, cinéma, marketing, ... Nous allons comparer les marchés prédictifs à d'autres outils de prévision puis nous présenterons en détail les marchés prédictifs ainsi qu'un essai d'en formaliser les spécifications. Nous illustrerons alors ceci par des exemples tirés des principales plates-formes en activité pour le moment. S'ensuit une discussion sur l'orientation ludique des plates-formes actuelles et une présentation des utilisations que l'on pourrait en faire et qui apporteraient un réel bénéfice. Nous nous penchons alors sur l'analyse des besoins tant de l'expérimentateur que des utilisateurs. Cherchant des raisons à l'absence totale de telles plates-formes dans le cadre de la recherche, nous avons mené une série d'entretiens avec des professeurs de l'EPFL engagés dans la direction du projet MICS. Leurs réticences et craintes ont été prises en compte pour la définition des spécifications du prototype. Nous utilisons la méthode de (Spann and Skiera 2003) pour définir les spécifications de la plate-forme. Ces spécifications comprennent le choix du but prévisionnel, qui dans notre cas découle directement de notre proposition de recherche, des mécanismes financiers à la base des transactions, ainsi que des moyens incitatifs mis en place pour amener les utilisateurs à utiliser la plate-forme et surtout, pour amener les plus éclairés d'entre eux à transmettre leurs informations au marché. Ces spécifications débouchent sur la présentation de quatre cas d'utilisation. Notre objectif étant de développer un prototype pour y tester nos hypothèses, nous faisons un tour d'horizon des plates-formes à disposition et présentons l'architecture de ce dernier, basé sur les développements à la base d'USIFEX, qui n'est plus en activité depuis quatre ans. Le prototype utilise la souplesse de la programmation objet en se basant sur le langage Python dans sa version 2.3. Nous nous attardons ensuite sur la présentation de l'interface du prototype et des interactions avec les utilisateurs. Il faudra par la suite s'attacher à refondre l'interface pour le faire évoluer vers plus de convivialité, et nous permettre de guider l'utilisateur lors de ses sessions sur la plate-forme. Les parties théoriques et logicielles sous toit il nous reste encore à décrire les contrats et la manière de les formuler. A nouveau nous nous penchons sur les marchés actuels pour y tirer des enseignements qui pourraient nous être utiles. N'ayant malheureusement pas fait l'objet de publications, la définition des contrats est intimement liée avec les auteurs qui les rédigent. Nous tentons de tirer quelques enseignements provenant des contrats actifs sur les marchés des matières premières pour proposer un cadre nous permettant de formaliser la rédaction d'un contrat. Ne s'agissant que d'une proposition, il faudra encore tester et compléter ce cadre pour pouvoir s'assurer que la manière de rédiger les contrats n'influence pas sur la pertinence des prédictions. Finalement, nous esquissons les travaux qu'il reste à accomplir avant de pouvoir mener les premiers tests réels de la plate-forme. De la formulation des contrats à l'étude des mécanismes combinatoires d'agrégation de l'information en passant par les fonctions de fixation du prix. Nous revenons sur les travaux effectués dans le cadre de ce diplôme et présentons quelques idées de recherche futures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Problématique. Le cancer digestif est une maladie qui s'accompagne de nombreux décès. L'annonce d'un tel diagnostic engendre une crise existentielle composée d'un sentiment de finitude de la vie. Des réactions psychosociales accompagnent cette mauvaise nouvelle. Un concept particulier appelé le transitoriness est omniprésent. La personne lutte pour continuer à vivre. Elle adopte des stratégies de coping pour s'ajuster aux difficultés imposées par ce sentiment de finitude de vie. But. Décrire le niveau de sentiment de finitude de vie et les stratégies de coping utilisées face à l'annonce du diagnostic d'un cancer digestif et explorer la présence d'associations entre les variables. Méthode. Cette étude descriptive corrélationnelle a été conduite auprès de 40 personnes hospitalisées pour une intervention chirurgicale, recrutées selon un échantillonnage de convenance. Le protocole de recherche a été avalisé par le comité cantonal d'éthique. Les données ont été recueillies par un formulaire de données sociodémographiques et de santé ainsi que deux instruments de mesure : le SEKT (Subjektive Einschätzung von Krankheitssituation und Todesnähe) a permis de mesurer le sentiment de finitude de vie et le JCS (Jalowiec Coping Scale) a été employé pour recueillir les stratégies de coping. Les deux instruments de mesure n'étant pas disponibles en français, une procédure de traduction et retraduction a été effectuée et avalisée par un comité d'expert. Des analyses descriptives et corrélationnelles ont été réalisées. Résultats. L'échantillon est composé majoritairement d'hommes (51%), âgés entre 56- 74 ans (52,5%), mariés (45%) et avec enfants âgés de plus de 20 ans (60%). Il apparaît une forte proportion de personnes d'une autre nationalité (40%) que la suisse et avec une formation obligatoire (40%). Le sentiment de finitude de vie est présent: 62% réalisent que le cancer représente une menace pour leur vie. Les préoccupations autour de la mort sont « quelquefois » présentes (32,5%). Les personnes se sentent « un peu » à « proche » de la mort et le score total de la proximité est de M = 3,37 (ĒT= 1,77 ; rang: 0-8). Le style de coping privilégié est l'optimisme (M = 2,10), puis l'indépendance (M = 1,95) et l'affrontement de la situation (M =1,80). Aucune relation entre le sentiment de finitude de vie et le score total de coping n'apparaît, si ce n'est une probabilité p< 0,08 entre le sentiment de finitude de vie et les styles de coping expression des émotions et indépendance. La relation entre le sentiment de finitude de vie et la variable sociodémographique la nationalité présente une probabilité marginale (p= 0,058). Certains facteurs sociodémographiques influencent l'utilisation des différentes stratégies de coping : affrontement de la situation (p= 0,0007), coping palliatif (p= 0,0449) et niveau de formation; optimisme et genre (p= 0,0424) ; expression des émotions et âge (p= 0,045); indépendance et nationalité (p= 0,0319); soutien social et nombre d'enfants (p= 0,0016). Conclusion. Les professionnels de la santé doivent être sensibilisés aux spécificités du transitoriness et aux facteurs influençant l'utilisation de stratégies de coping efficaces afin de détecter les personnes vulnérables et de cibler leurs interventions de soins pour diminuer le risque de détresse et son impact sur la qualité de vie du patient.