1000 resultados para Facteurs environnementaux


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : Platelet Derived Growth Factor (PDGF) and Transforming Growth Factor-ß (TGF-ß) are two crucial growth factors in tissue repair and regeneration. They control migration and proliferation of macrophages and fibroblasts, as well as myofibroblast differentiation and synthesis of the new connective tissue. The transcription factor Nuclear Factor I-C (NFI-C) has been implicated in the TGF-ß pathway and regulation of extracellular matrix proteins in vitro. This suggests a possible implication of NFI-C in tissue repair. In this study, our purpose was to identify the NFI-C target genes in TGF-ß1 pathway activation and define the relationship between these two factors in cutaneous wound healing process. High-throughput genomic analysis in wild-type and NFI-C knock-out embryonic fibroblasts indicated that NFI-C acts as a repressor of the expression of genes which transcriptional activity is enhanced by TGF-ß. Interestingly, we found an over representation of genes involved in connective tissue inflammation and repair. In accordance with the genomic analysis, NFI-C-/- mice showed an improvement of skin healing during the inflammatory stage. Analysis of this new phenotype indicated that the expression of PDGFA and PDGF-Ra genes were increased in the wounds of NFI-C-/- mice resulting in early recruitment of macrophages and fibroblasts in the granulation tissue. In correlation with the stimulation effect of TGF-ß on myofibroblast differentiation we found an increased differentiation of these cells in null mice, providing a rationale for rapid wound closure. Thus, in the absence of NFI-C, both TGF-ß and PDGF pathways may be activated, leading to enhanced healing process. Therefore, the inhibition of NFI-C expression could constitute a suitable therapy for healing improvement. In addition, we identified a delay of hair follicle cycle initiation in NFI-C-/- mice. This prompted us to investigate the role of NFI-C in skin appendage. The transition from a quiescent to a proliferative phase requires a perfect timing of signalling modulation, leading to stem cell activation. As a consequence of cycle initiation delay in null mice, the activation of signalling involved in cell proliferation was also retarded. Interestingly, at the crucial moment of cell fate determination, we identified a decrease of CD34 gene in mutant mice. Since CD34 protein is involved in migration of multipotent cells, we suggest that NFI-C may be involved in stem cell mobilisation required for hair follicle renewal. Further investigations of the role of NFI-C in progenitor cell activation will lead to a better understanding of tissue regeneration and raise the possibility of treating alopecia with NFI-C-targeting treatment. In summary, this study demonstrates new regenerative functions of NFI-C in adult mice, which regulates skin repair and hair follicle renewal. Résumé : PDGF et TGF-ß sont des facteurs important du mécanisme de défense immunitaire. Ils influencent la prolifération et migration des macrophages et des fibroblastes, ainsi que la différenciation des myofibroblastes et la formation du nouveau tissu conjonctif. Le facteur de transcription NFI-C a été impliqué dans la voie de signalisation de TGF-ß et dans 1a régulation de l'expression des protéines de la matrice extracellulaire in vitro. Ces études antérieures laissent supposer que NFI-C serait un facteur important du remodelage tissulaire. Cependant le rôle de NFI-C dans un tissu comme la peau n'a pas encore été étudié. Dans ce travail, le but a été de d'identifier la relation qu'il existe entre I~1FI-C et TGF-ßl à un niveau transcriptionnel et dans le processus de cicatrisation cutanée in vivo. Ainsi, une analyse génétique à grande échelle, a permis d'indiquer que NFI-C agit comme un répresseur sur l'expression des gènes dont l'activité transcriptionnelle est activée par TGF-ß. De plus nous avons identifié un groupe de gènes qui controlent le développement et l'inflammation du tissue conjonctif. En relation avec ce résultat, l'absence de NFI-C dans la peau induit une cicatrisation plus rapide pendant la phase inflammatoire. Durant cette période, nous avons montré que les expressions de PDGFA et PDGFRa seraient plus élevées en absence de NFI-C. En conséquence, l'activation de la voie de PDGF induit une infiltration plus importante des macrophages et fibroblastes dans le tissue granuleux des souris mutantes. De plus, en corrélation avec le rôle de TGF-ßl dans la différenciation des myofibroblasts, nous avons observé une différenciation plus importante de ces cellules chez les animaux knock-out, ce qui peut expliquer une contraction plus rapide de la plaie. De plus, nous avons découvert que NFI-C est impliqué dans l'initiation du cycle folliculaire. La caractérisation de ce nouveau phénotype a montré un ralentissement de la transition telogène-anagène des souris NFI-C-/-. Or, un événement clé de cette transition est la modulation de plusieurs signaux moléculaires aboutissant à' l'activation des cellules souches. En corrélation avec le decalage du cycle, l'activation de ces signaux est également décalée dans les souris NFI-C-/-. Ainsi, au commencement de l'anagène, la prolifération des keratinocytes,NFI-C-/- est retardée et corrèle avec une diminution de l'expression de CD34, une protéine responsable de la détermination du migration des cellules multipotentes. Ainsi, NFI-C semble être impliqué dans la mobilisation des cellules souches qui sont nécessaires au renouvellement folliculaire. En résumé, NFI-C est impliqué dans la régulation des signaux moléculaires nécessaires à la réparation tissulaire et son inhibition pourrait constituer un traitement de la cicatrisation. L'analyse de son rôle dans l'activation des cellules souches permettrait de mieux comprendre le renouvellement tissulaire et, à long terme, d'améliorer les techniques de greffe des cellules souches épithéliales ou consituter une cible pour le traitement de l'alopecie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction :¦Généralement, toute personne souffrant de déficits neurologiques suite à un accident vasculaire cérébral (AVC) devrait bénéficier d'un traitement multiprofessionnel intensif de neuroréhabilitation. Or, on constate que, malgré une même prise en charge, tous les patients n'évoluent pas de façon similaire. Si nous pouvions déterminer précocement le potentiel de récupération fonctionnelle de chaque patient, nous pourrions adapter le programme de réadaptation à ses besoins et à ses capacités.¦Objectifs :¦Identifier les facteurs prédictifs précoces du devenir fonctionnel des patients victimes d'AVC, sous traitement multiprofessionnel intensif de neuroréhabilitation.¦Matériel et méthode :¦Enquête prospective d'observation de suivi d'une cohorte de 176 patients victimes d'un premier AVC et admis dans le service de neuropsychologie et de neuroréhabilitation du CHUV, entre 2005 et 2010. L'état fonctionnel des patients a été évalué à l'aide de l'échelle de Mesure d'Indépendance Fonctionnelle (MIF), lors de leur entrée et de leur sortie du service de réadaptation.¦Résultats :¦Une analyse multivariée a mis en évidence que le fait d'être un homme, d'avoir moins de 55 ans, d'avoir un score de MIF supérieur à 100 lors de l'entrée en neuroréhabilitation, de bénéficier d'au minimum 70 jours de réhabilitation, de gagner chaque semaine au minimum 10% du gain de MIF possible et de ne pas souffrir ni d'aphasie, ni d'héminégligence, ni de spasticité, ni de complications durant le séjour de réadaptation étaient des facteurs prédictifs précoces d'une bonne évolution fonctionnelle sous traitement multiprofessionnel intensif de neuroréhabilitation.¦Conclusion :¦Tous les patients n'évoluent pas de façon identique sous traitement multiprofessionnel intensif de neuroréhabilitation ; une prise en charge adaptée, en particulier concernant l'intensité des traitements, devrait être proposée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rrésumé: La première description dans une publication médicale des douleurs neuropathiques remonte à 1872, le Dr S.W. Mitchell les résumant ainsi [...]" la causalgie est la plus terrible des tortures qu'une lésion nerveuse puisse entraîner "[...]. Par définition, la douleur neuropathique est une douleur chronique faisant suite à une lésion ou dysfonction du système nerveux. Malgré les progrès faits dans la compréhension de ce syndrome, le détail des mécanismes impliqués nous échappe encore et son traitement reste insuffisant car moins de 50% des patients sont soulagés par les thérapies actuelles. Différents modèles expérimentaux ont été élaborés chez l'animal de laboratoire, en particulier des modèles de lésion de nerfs périphériques chez le rat, permettant des investigations tant moléculaires que fonctionnelles des mécanismes impliqués dans le développement de ces douleurs. En revanche, peu de modèles existent chez la souris, alors que cet animal, grâce à la transgénèse, est très fréquemment utilisé pour l'approche fonctionnelle ciblée sur un gène. Dans l'étude présentée ici, nous avons évalué chez la souris C57BL/6 l'adaptation d'un modèle neuropathique, proposé une nouvelle modalité de mesure de la sensibilité douloureuse adaptée à la souris et défini une méthode d'analyse performante des résultats. Ce modèle, dit de lésion avec épargne nerveuse (spared Werve injury, SNI), consiste en la lésion de deux des trois branches du nerf sciatique, soit les nerfs peronier commun et tibial. La troisième branche, le nerf sural est laissé intact et c'est dans le territoire cutané de ce dernier que la sensibilité douloureuse à des stimulations mécaniques est enregistrée. Des filaments calibrés de force croissante sont appliqués sur la surface de la patte impliquée et la fréquence relative de retrait de la patte a été modélisée mathématiquement et analysée par un modèle statistique intégrant tous les paramètres de l'expérience (mixed-effects model). Des variantes chirurgicales lésant séquentiellement les trois branches du nerf sciatique ainsi que la réponse en fonction du sexe de l'animal ont également été évaluées. La lésion SNI entraîne une hypersensibilité mécanique marquée comparativement aux souris avec chirurgie contrôle; cet effet est constant entre les animaux et persiste durant les quatre semaines de l'étude. De subtiles différences entre les variables, y compris une divergence de sensibilité mécanique entre les sexes, ont été démontrées. La nécessité de léser le nerf tibial pour le développement des symptômes a également été documentée par notre méthode d'évaluation et d'analyse. En conclusion, nous avons validé le modèle SNI chez la souris par l'apparition d'un symptôme reproductible et apparenté à l'allodynie mécanique décrite par les patients souffrant de douleurs neuropathiques. Nous avons développé des méthodes d'enregistrement et d'analyse de la sensibilité douloureuse sensibles qui permettent la mise en évidence de facteurs intrinsèques et extrinsèques de variation de la réponse. Le modèle SNI utilisé chez des souris génétiquement modifiées, de par sa précision et reproductibilité, pourra permettre la discrimination de facteurs génétiques et épigénétiques contribuant au développement et à la persistance de douleurs neuropathiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs Évaluer et comparer la présence de symptômes de stress post-traumatique, en fonction de la gravité de la prématurité, chez les mères et chez les pères de bébés nés prématurément. Méthode En fonction du score de risque périnatal (PERI) du bébé, les parents des prématurés (âge gestationnel moins de 34 semaines) ont été divisés en deux groupes : les parents de prématurés à faible risque (n = 16) et à haut risque (n = 26). Les symptômes d'intrusion et d'évitement, de l'état de stress post-traumatique, ont été évalués chez les parents à l'aide d'un questionnaire, l'Impact of Event Scale (IES). Leurs réponses ont été comparées à un groupe témoin de parents de nouveau-nés à terme (n = 24). Les différences entre les réponses des mères et des pères, ont été analysées. Résultats Les parents de bébés prématurés sont plus à risque que les parents de nouveau-nés à terme de présenter des symptômes de stress post-traumatique. Les mères en lien avec le fait même de la prématurité du bébé, les pères en lien avec la gravité de la prématurité. Les mères et les pères des prématurés des deux groupes (prématurés à faible risque, prématurés à haut risque) décrivent des symptômes d'intrusion, alors que les symptômes d'évitement sont décrits par toutes les mères, mais seulement par les pères de prématurés à haut risque périnatal. Conclusion La naissance prématurée est susceptible d'entraîner l'apparition de symptômes de stress post-traumatique chez les parents. Les mères et les pères réagissent différemment. Objectives Evaluation of the symptoms of parental post-traumatic stress disorder (PTSD), according to the severity of the prematurity, in mothers and fathers of premature babies. Materials and methods According to the Perinatal Risk Inventory (PERI), the parents of premature infants (gestational age less than 34 weeks) were divided into two groups, parents of a low-risk premature infants (n = 16) and of high-risk premature infants (n = 26). The symptoms of intrusion and avoidance, as a part of the post-traumatic stress disorder, were evaluated by an autoadministrated questionnaire, the Impact of Event Scale (IES). Their responses were compared with a control group of parents of full-term infants (n = 24). The differences in the answers of mothers and fathers were analysed. Results The occurrence of symptoms of post-traumatic stress disorder is increased in parents of preterm infants compared with the control group. Whereas mothers of premature infants are at risk of presenting symptoms of PTSD, linked to the prematurity, with fathers the infant perinatal risk factors play a greater role. The symptoms of intrusion are present in mothers and fathers of preterm infants of both groups. Mothers of both groups present avoidance symptoms, although only fathers of high-risk preterm infants present them. Conclusions Premature birth has an impact on both parents in terms of post-traumatic stress reactions. However, mothers and fathers react in different ways according to the severity of the prematurity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The thesis at hand is concerned with the spatio-temporal brain mechanisms of visual food perception as investigated by electrical neuroimaging. Due to the increasing prevalence of obesity and its associated challenges for public health care, there is a need to better understand behavioral and brain processes underlying food perception and food-based decision-making. The first study (Study A) of this thesis was concerned with the role of repeated exposure to visual food cues. In our everyday lives we constantly and repeatedly encounter food and these exposures influence our food choices and preferences. In Study A, we therefore applied electrical neuroimaging analyses of visual evoked potentials to investigate the spatio-temporal brain dynamics linked to the repeated viewing of high- and low-energy food cues (published manuscript: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). In this study, we found that repetitions differentially affect behavioral and brain mechanisms when high-energy, as opposed to low-energy foods and non-food control objects, were viewed. The representation of high-energy food remained invariant between initial and repeated exposures indicating that the sight of high-energy dense food induces less behavioral and neural adaptation than the sight of low-energy food and non-food control objects. We discuss this finding in the context of the higher salience (due to greater motivation and higher reward or hedonic valuation) of energy- dense food that likely generates a more mnemonically stable representation. In turn, this more invariant representation of energy-dense food is supposed to (partially) explain why these foods are over-consumed despite of detrimental health consequences. In Study Β we investigated food responsiveness in patients who had undergone Roux-en-Y gastric bypass surgery to overcome excessive obesity. This type of gastric bypass surgery is not only known to alter food appreciation, but also the secretion patterns of adipokines and gut peptides. Study Β aimed at a comprehensive and interdisciplinary investigation of differences along the gut-brain axis in bypass-operated patients as opposed to weight-matched non-operated controls. On the one hand, the spatio-temporal brain dynamics to the visual perception of high- vs. low-energy foods under differing states of motivation towards food intake (i.e. pre- and post-prandial) were assessed and compared between groups. On the other hand, peripheral gut hormone measures were taken in pre- and post-prandial nutrition state and compared between groups. In order to evaluate alterations in the responsiveness along the gut-brain-axis related to gastric bypass surgery, correlations between both measures were compared between both participant groups. The results revealed that Roux-en- Y gastric bypass surgery alters the spatio-temporal brain dynamics to the perception of high- and low-energy food cues, as well as the responsiveness along the gut-brain-axis. The potential role of these response alterations is discussed in relation to previously observed changes in physiological factors and food intake behavior post-Roux-en-Y gastric bypass surgery. By doing so, we highlight potential behavioral, neural and endocrine (i.e. gut hormone) targets for the future development of intervention strategies for deviant eating behavior and obesity. Together, the studies showed that the visual representation of foods in the brain is plastic and that modulations in neural activity are already noted at early stages of visual processing. Different factors of influence such as a repeated exposure, Roux-en-Y gastric bypass surgery, motivation (nutrition state), as well as the energy density of the visually perceived food were identified. En raison de la prévalence croissante de l'obésité et du défi que cela représente en matière de santé publique, une meilleure compréhension des processus comportementaux et cérébraux liés à la nourriture sont nécessaires. En particulier, cette thèse se concentre sur l'investigation des mécanismes cérébraux spatio-temporels liés à la perception visuelle de la nourriture. Nous sommes quotidiennement et répétitivement exposés à des images de nourriture. Ces expositions répétées influencent nos choix, ainsi que nos préférences alimentaires. La première étude (Study A) de cette thèse investigue donc l'impact de ces exposition répétée à des stimuli visuels de nourriture. En particulier, nous avons comparé la dynamique spatio-temporelle de l'activité cérébrale induite par une exposition répétée à des images de nourriture de haute densité et de basse densité énergétique. (Manuscrit publié: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). Dans cette étude, nous avons pu constater qu'une exposition répétée à des images représentant de la nourriture de haute densité énergétique, par opposition à de la nourriture de basse densité énergétique, affecte les mécanismes comportementaux et cérébraux de manière différente. En particulier, la représentation neurale des images de nourriture de haute densité énergétique est similaire lors de l'exposition initiale que lors de l'exposition répétée. Ceci indique que la perception d'images de nourriture de haute densité énergétique induit des adaptations comportementales et neurales de moindre ampleur par rapport à la perception d'images de nourriture de basse densité énergétique ou à la perception d'une « catégorie contrôle » d'objets qui ne sont pas de la nourriture. Notre discussion est orientée sur les notions prépondérantes de récompense et de motivation qui sont associées à la nourriture de haute densité énergétique. Nous suggérons que la nourriture de haute densité énergétique génère une représentation mémorielle plus stable et que ce mécanisme pourrait (partiellement) être sous-jacent au fait que la nourriture de haute densité énergétique soit préférentiellement consommée. Dans la deuxième étude (Study Β) menée au cours de cette thèse, nous nous sommes intéressés aux mécanismes de perception de la nourriture chez des patients ayant subi un bypass gastrique Roux- en-Y, afin de réussir à perdre du poids et améliorer leur santé. Ce type de chirurgie est connu pour altérer la perception de la nourriture et le comportement alimentaire, mais également la sécrétion d'adipokines et de peptides gastriques. Dans une approche interdisciplinaire et globale, cette deuxième étude investigue donc les différences entre les patients opérés et des individus « contrôles » de poids similaire au niveau des interactions entre leur activité cérébrale et les mesures de leurs hormones gastriques. D'un côté, nous avons investigué la dynamique spatio-temporelle cérébrale de la perception visuelle de nourriture de haute et de basse densité énergétique dans deux états physiologiques différent (pre- et post-prandial). Et de l'autre, nous avons également investigué les mesures physiologiques des hormones gastriques. Ensuite, afin d'évaluer les altérations liées à l'intervention chirurgicale au niveau des interactions entre la réponse cérébrale et la sécrétion d'hormone, des corrélations entre ces deux mesures ont été comparées entre les deux groupes. Les résultats révèlent que l'intervention chirurgicale du bypass gastrique Roux-en-Y altère la dynamique spatio-temporelle de la perception visuelle de la nourriture de haute et de basse densité énergétique, ainsi que les interactions entre cette dernière et les mesures périphériques des hormones gastriques. Nous discutons le rôle potentiel de ces altérations en relation avec les modulations des facteurs physiologiques et les changements du comportement alimentaire préalablement déjà démontrés. De cette manière, nous identifions des cibles potentielles pour le développement de stratégies d'intervention future, au niveau comportemental, cérébral et endocrinien (hormones gastriques) en ce qui concerne les déviances du comportement alimentaire, dont l'obésité. Nos deux études réunies démontrent que la représentation visuelle de la nourriture dans le cerveau est plastique et que des modulations de l'activité neurale apparaissent déjà à un stade très précoce des mécanismes de perception visuelle. Différents facteurs d'influence comme une exposition repetee, le bypass gastrique Roux-en-Y, la motivation (état nutritionnel), ainsi que la densité énergétique de la nourriture qui est perçue ont pu être identifiés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary: Global warming has led to an average earth surface temperature increase of about 0.7 °C in the 20th century, according to the 2007 IPCC report. In Switzerland, the temperature increase in the same period was even higher: 1.3 °C in the Northern Alps anal 1.7 °C in the Southern Alps. The impacts of this warming on ecosystems aspecially on climatically sensitive systems like the treeline ecotone -are already visible today. Alpine treeline species show increased growth rates, more establishment of young trees in forest gaps is observed in many locations and treelines are migrating upwards. With the forecasted warming, this globally visible phenomenon is expected to continue. This PhD thesis aimed to develop a set of methods and models to investigate current and future climatic treeline positions and treeline shifts in the Swiss Alps in a spatial context. The focus was therefore on: 1) the quantification of current treeline dynamics and its potential causes, 2) the evaluation and improvement of temperaturebased treeline indicators and 3) the spatial analysis and projection of past, current and future climatic treeline positions and their respective elevational shifts. The methods used involved a combination of field temperature measurements, statistical modeling and spatial modeling in a geographical information system. To determine treeline shifts and assign the respective drivers, neighborhood relationships between forest patches were analyzed using moving window algorithms. Time series regression modeling was used in the development of an air-to-soil temperature transfer model to calculate thermal treeline indicators. The indicators were then applied spatially to delineate the climatic treeline, based on interpolated temperature data. Observation of recent forest dynamics in the Swiss treeline ecotone showed that changes were mainly due to forest in-growth, but also partly to upward attitudinal shifts. The recent reduction in agricultural land-use was found to be the dominant driver of these changes. Climate-driven changes were identified only at the uppermost limits of the treeline ecotone. Seasonal mean temperature indicators were found to be the best for predicting climatic treelines. Applying dynamic seasonal delimitations and the air-to-soil temperature transfer model improved the indicators' applicability for spatial modeling. Reproducing the climatic treelines of the past 45 years revealed regionally different attitudinal shifts, the largest being located near the highest mountain mass. Modeling climatic treelines based on two IPCC climate warming scenarios predicted major shifts in treeline altitude. However, the currently-observed treeline is not expected to reach this limit easily, due to lagged reaction, possible climate feedback effects and other limiting factors. Résumé: Selon le rapport 2007 de l'IPCC, le réchauffement global a induit une augmentation de la température terrestre de 0.7 °C en moyenne au cours du 20e siècle. En Suisse, l'augmentation durant la même période a été plus importante: 1.3 °C dans les Alpes du nord et 1.7 °C dans les Alpes du sud. Les impacts de ce réchauffement sur les écosystèmes - en particuliers les systèmes sensibles comme l'écotone de la limite des arbres - sont déjà visibles aujourd'hui. Les espèces de la limite alpine des forêts ont des taux de croissance plus forts, on observe en de nombreux endroits un accroissement du nombre de jeunes arbres s'établissant dans les trouées et la limite des arbres migre vers le haut. Compte tenu du réchauffement prévu, on s'attend à ce que ce phénomène, visible globalement, persiste. Cette thèse de doctorat visait à développer un jeu de méthodes et de modèles pour étudier dans un contexte spatial la position présente et future de la limite climatique des arbres, ainsi que ses déplacements, au sein des Alpes suisses. L'étude s'est donc focalisée sur: 1) la quantification de la dynamique actuelle de la limite des arbres et ses causes potentielles, 2) l'évaluation et l'amélioration des indicateurs, basés sur la température, pour la limite des arbres et 3) l'analyse spatiale et la projection de la position climatique passée, présente et future de la limite des arbres et des déplacements altitudinaux de cette position. Les méthodes utilisées sont une combinaison de mesures de température sur le terrain, de modélisation statistique et de la modélisation spatiale à l'aide d'un système d'information géographique. Les relations de voisinage entre parcelles de forêt ont été analysées à l'aide d'algorithmes utilisant des fenêtres mobiles, afin de mesurer les déplacements de la limite des arbres et déterminer leurs causes. Un modèle de transfert de température air-sol, basé sur les modèles de régression sur séries temporelles, a été développé pour calculer des indicateurs thermiques de la limite des arbres. Les indicateurs ont ensuite été appliqués spatialement pour délimiter la limite climatique des arbres, sur la base de données de températures interpolées. L'observation de la dynamique forestière récente dans l'écotone de la limite des arbres en Suisse a montré que les changements étaient principalement dus à la fermeture des trouées, mais aussi en partie à des déplacements vers des altitudes plus élevées. Il a été montré que la récente déprise agricole était la cause principale de ces changements. Des changements dus au climat n'ont été identifiés qu'aux limites supérieures de l'écotone de la limite des arbres. Les indicateurs de température moyenne saisonnière se sont avérés le mieux convenir pour prédire la limite climatique des arbres. L'application de limites dynamiques saisonnières et du modèle de transfert de température air-sol a amélioré l'applicabilité des indicateurs pour la modélisation spatiale. La reproduction des limites climatiques des arbres durant ces 45 dernières années a mis en évidence des changements d'altitude différents selon les régions, les plus importants étant situés près du plus haut massif montagneux. La modélisation des limites climatiques des arbres d'après deux scénarios de réchauffement climatique de l'IPCC a prédit des changements majeurs de l'altitude de la limite des arbres. Toutefois, l'on ne s'attend pas à ce que la limite des arbres actuellement observée atteigne cette limite facilement, en raison du délai de réaction, d'effets rétroactifs du climat et d'autres facteurs limitants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Les maladies cardiovasculaires restent la première cause de mortalité dans notre pays. Elles sont associées à des facteurs de risque (FRCV) bien connus comme le diabète ou la dyslipidémie. Nous résumons ici les principaux résultats de l'étude CoLaus concernant d'une part la prévalence du diabète et de la dyslipidémie et certaines caractéristiques de leur prise en charge.Les découvertes récentes concernant de nouveaux déterminants génétiques impliqués dans ces FRCV sont présentées de manière succincte. La contribution de ces données génétiques est également discutée dans une perspective de prise en charge clinique.[Abstract] Cardiovascular diseases remain the first cause of mortality in our country. They are associated with well known risk factors such as diabetes and dyslipidemia. Herein we summarize main results of the CoLaus study regarding, first the prevalence and characteristics of the treatment of these risk factors.Then we present recent discoveries of new genetic determinants associated with these risk factors. Finally, we discuss whether this knowledge changes our current clinical management of our patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail en situations d'urgence, notamment médicale, comporte de nombreux facteurs de risque pour la santé mentale. Cependant, des études récentes suggèrent que la reconnaissance de même que certains aspects relatifs au sens du travail pourraient permettre aux individus de préserver leur équilibre psychique malgré la présence de stresseurs importants.Nous avons effectué une étude portant sur la santé au travail pour des ambulanciers travaillant en Suisse romande. Dans un premier temps, une phase qualitative centrée sur l'observation du travail réel a été effectuée. Les observations ont été effectuées dans 11 services pour un total de 416 heures d'observation. Dans un second temps, un questionnaire a été développé et administré à l'ensemble des ambulanciers de Suisse romande.Notre étude a notamment permis de confirmer l'importance de la reconnaissance et du sens du travail pour les ambulanciers. [Auteurs]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseLe syndrome métabolique (défini par les critères ATP III par la présence au minimum de 3 des facteurs suivants : taux plasmatiques d'HDL-cholestérol < 1,04 mmol/1 chez l'homme et < 1.29 mmol/1 chez la femme, taux plasmatiques de triglycérides > 1,69 mmol/1, tension artérielle > 130/85 mmHg, glycémie >6,1 mmol/1, tour de taille > 108 cm chez l'homme et > 88 cm chez la femme) représente une constellation de facteurs de risque majeurs pour le développement de maladies cardiovascu-laires. Il n'est pas encore établi actuellement quelle composante de ce syndrome contribue de manière plus marquée au risque de développer une athérosclérose. Dans le but d'éclaircir la pathogenèse de ce syndrome, une étude multicentrique intitulée GEMS (« Genetic Epidemiology of Metabolic Syndrome ») a été initiée afin de déterminer si la constellation d'une dyslipidémie avec HDL-C bas et TG élevé est un marqueur sensible de l'homogénéité génétique chez les individus atteints de syndrome métabolique.Dans l'étude menée à Lausanne (multicentrique), la contribution de la dyslipidémie avec HDL-C bas et TG élevé dans la pathogenèse de l'athérosclérose a été évaluée par 2 examens, reconnus comme marqueurs fiables de la vasculopathie : la mesure de l'épaisseur intima média carotidienne par ultrasonographic et l'évaluation de la dysfonction endothéliale de la microcirculation cutanée. Deux groupes de sujets comparables en terme d'âge et de sexe et souffrant d'un excès pondéral (BMI > 25 kg/m2) mais normoglycémiques ont été comparés. Ces deux groupes (étude cas-témoins) étaient uniquement discordants quant à leurs profils lipidiques. Ainsi, 120 cas, définis comme ayant un HDL-cholestérol bas (< 25 percentile pour l'âge et le sexe dans la population générale) et des TG élevés (> 75 percentile) ont été comparés à 120 contrôles avec un HDL-cholestérol haut (> 50 percentile) et des TG bas (< 50 percentile). Un doppler des artères carotides et fémorales a été effectué pour déterminer l'épaisseur de l'intima média et la présence ou non de plaques d'athérome. La fonction endothéliale a été évaluée par un laser doppler sur la micro-circulation cutanée (réponse hyperémique à une occlusion transitoire de la circulation de l'avant-bras par une manchette à pression et mesure de la vasodilatation induite par un échauffement local de la peau avec de l'eau). Un enregistrement de la pression artérielle ambulatoire sur la journée (Remler) a été pratiqué chez tous les sujets.Les résultats obtenus montrent que les cas ont une prévalence plus élevée de plaques d'athérome (médiane 1,5 ± 0,15 vs 0,8 > 0,15, p<.001), une épaisseur intima média plus importante (médiane 0,66 ± 0,15 vs 0,61 ± 0,15, p<.01), ainsi qu'une réduction significative de la vasodilatation endothéliale induite par la chaleur et post-ischémique comparativement aux contrôles.En conclusion, le profil lipidique associant un HDL-cholestérol bas et des triglycérides élevés représente un risque majeur de développer une maladie athéromateuse périphérique et est associée à une augmentation de l'épaisseur intima média et une altération de la fonction endothéliale chez les individus en surcharge pondérale. Bien qu'un HDL-cholestérol bas soit fréquemment associé à une hypertriglycéridémie, les résultats de notre étude peuvent suggérer un rôle potentiel de la fraction HDL-cholestérol comme un puissant agent anti-athérogénique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AIM: Hyperglycaemia is now a recognized predictive factor of morbidity and mortality after coronary artery bypass grafting (CABG). For this reason, we aimed to evaluate the postoperative management of glucose control in patients undergoing cardiovascular surgery, and to assess the impact of glucose levels on in-hospital mortality and morbidity. METHODS: This was a retrospective study investigating the association between postoperative blood glucose and outcomes, including death, post-surgical complications, and length of stay in the intensive care unit (ICU) and in hospital. RESULTS: A total of 642 consecutive patients were enrolled into the study after cardiovascular surgery (CABG, carotid endarterectomy and bypass in the lower limbs). Patients' mean age was 68+/-10 years, and 74% were male. In-hospital mortality was 5% in diabetic patients vs 2% in non-diabetic patients (OR: 1.66, P=0.076). Having blood glucose levels in the upper quartile range (> or =8.8 mmol/L) on postoperative day 1 was independently associated with death (OR: 10.16, P=0.0002), infectious complications (OR: 1.76, P=0.04) and prolonged ICU stay (OR: 3.10, P<0.0001). Patients presenting with three or more hypoglycaemic episodes (<4.1 mmol/L) had increased rates of mortality (OR: 9.08, P<0.0001) and complications (OR: 8.57, P<0.0001). CONCLUSION: Glucose levels greater than 8.8 mmol/L on postoperative day 1 and having three or more hypoglycaemic episodes in the postoperative period were predictive of mortality and morbidity among patients undergoing cardiovascular surgery. This suggests that a multidisciplinary approach may be able to achieve better postoperative blood glucose control. Conclusion: Objectif: L'hyperglycémie a été reconnue comme facteur prédictif de morbidité et mortalité après un pontage aortocoronaire. Notre étude avait pour objectif d'évaluer la prise en charge postopératoire des glycémies chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire et d'évaluer l'impact de ces glycémies sur la mortalité et la morbidité intrahospitalières. Méthodes: Étude rétrospective recherchant une association entre la glycémie postopératoire et les complications postchirurgicales, la mortalité et la durée du séjour aux soins intensifs et à l'hôpital. Résultats: L'étude a été réalisée sur 642 patients qui avaient subi une intervention chirurgicale cardiovasculaire (ex. pontage aortocoronaire, endartérectomie de la carotide, pontage artériel des membres inférieurs). L'âge moyen est de 68 ± 10 ans et 74 % des patients étaient de sexe masculin. La mortalité intrahospitalière a été de 5 % parmi les patients diabétiques et 2 % chez les non-diabétiques (OR 1,66, p = 0,076). Les taux de glycémies situés dans le quartile supérieur (≥ 8,8 mmol/l) à j1 postopératoire sont associés de manière indépendante avec la mortalité (OR 10,16, 95 % CI 3,20-39,00, p = 0,0002), les complications infectieuses (OR 1,76, 95 % CI 1,02-3,00, p = 0,04) et la durée du séjour aux soins intensifs (OR 3,10, 95 % CI 1,83-5,38, p < 0,0001). Les patients qui avaient présenté trois hypoglycémies ou plus (< 4,1 mmol/l) ont présenté un taux augmenté de mortalité (OR 9,08, p ≤ 0,0001) et de complications (OR 8,57, p < 0,0001). Conclusion : Des glycémies supérieures à 8,8 mmol/l à j1 postopératoire et la présence de trois hypoglycémies ou plus en période postopératoire sont des facteurs prédictifs de mauvais pronostic chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire. Ainsi, une approche multidisciplinaire devrait être proposée afin d'obtenir un meilleur contrôle postopératoire des glycémies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de l'étude présentée est d'adapter et de valider une version française de la Stigma Scale (King, 2007) auprès d'une population de personnes souffrant de troubles psychiques. Dans une première phase, la stabilité temporelle (fidélité test-retest), la cohérence interne et la validité convergente de l'instrument original à 28 items traduit en français ont été évaluées auprès d'un échantillon de 183 patients. Les résultats d'analyses factorielles confirmatoires ne nous ont pas permis de confirmer la structure originale de l'instrument. Nous avons donc proposé, sur la base des résultats d'une analyse factorielle exploratoire, une version courte de l'échelle de stigmatisation (9 items) qui conserve la structure en trois facteurs du modèle original. Dans une deuxième phase, nous avons examiné les qualités psychométriques et validé cette version abrégée de l'échelle de stigmatisation auprès d'un second échantillon de 234 patients. Les indices d'ajustements de notre analyse factorielle confirmatoire confirme la structure en trois facteurs de la version abrégée de la Stigma Scale. Les résultats suggèrent que la version française abrégée de l'échelle de stigmatisation constitue un instrument utile, fiable et valide dans l'autoévaluation de la stigmatisation perçue par des personnes souffrant de troubles psychiques. - Aim People suffering from mental illness are exposed to stigma. However, only few tools are available to assess stigmatization as perceived from the patient's perspective. The aim of this study is to adapt and validate a French version of the Stigma Scale (King, 2007). This self-report questionnaire has a three-factor structure: discrimination, disclosure and positive aspects of mental illness. Discrimination subscale refers to perceived negative reactions by others. Disclosure subscale refers mainly to managing disclosure to avoid discrimination and finally positive aspects subscale taps into how patients are becoming more accepting, more understanding toward their illness. Method In the first step, internal consistency, convergent validity and test-retest reliability of the French adaptation of the 28-item scale have been assessed on a sample of 183 patients. Results of confirmatory factor analyses (CFA) did not confirm the hypothesized structure. In light of the failed attempts to validate the original version, an alternative 9-item short-form version of the Stigma Scale, maintaining the integrity of the original model, was developed based on results of exploratory factor analyses in the first sample and cross- validated in a new sample of 234 patients. Results Results of CFA did not confirm that the data fitted well to the three-factor model of the 28-item Stigma Scale (χ2/άί=2.02, GFI=0.77, AGFI=0.73, RMSEA=0.07, CFI=0.77 et NNFI=0.75). Cronbach's α are excellent for discrimination (0.84) and disclosure (0.83) subscales but poor for potential positive aspects (0.46). External validity is satisfactory. Overall Stigma Scale total score is negatively correlated with score on Rosenberg's Self-Esteem Scale (r = -0.49), and each sub-scale is significantly correlated with a visual analogue scale that refers to the specific aspect of stigma (0.43 < |r| < 0.60). Intraclass correlation coefficients between 0.68 and 0.89 indicate good test- retest reliability. Results of CFA demonstrate that the items chosen for the short version of the Stigma Scale have the expected fit properties fa2/df=1.02, GFI=0.98, AGFI=0.98, RMSEA=0.01, CFI=1.0 et NNFI=1.0). Considering the small number (3 items) of items in each subscales of the short version of the Stigma Scale, a coefficients for the discrimination (0.57), disclosure (0.80) and potential positive aspects subscales (0.62) are considered as good. Conclusion Our results suggest that the 9-item French short-version of the Stigma Scale is a useful, reliable and valid self-report questionnaire to assess perceived stigmatization in people suffering from mental illness. The time of completion is really short and questions are well understood and accepted by the patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude s'inscrit dans le cadre des actions de prévention de la consommation abusive d'alcool entreprises par la Ligue valaisanne contre les toxicomanies (LVT). Réalisée après la campagne d'affichage articulée autour des slogans "Combien ?" et "dégustez la modération !", elle a principalement pour objectif de documenter les habitudes de consommation de la population valaisanne et leur évolution récente ainsi que d'identifier les facteurs susceptibles d'exercer une influence positive ou négative sur la transition vers une consommation d'alcool articulée autour des pôles "qualité" et "modération". L'étude doit en outre servir à construire la suite des actions de prévention de la LVT dans une perspective de continuité par rapport aux messages diffusés précédemment : approfondissement, clarification, repérage des publics cible et des arguments les plus pertinents.