630 resultados para Mécanisme de Prévention


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les anorexigènes sont essentiellement des dérivés chimiques proches des amphétamines dont le mécanisme d'action est lié à une augmentation cérébrale de noradrénaline et/ou de sérotonine. Le développement d'une hypertension artérielle pulmonaire (HTAP) et de lésions valvulaires cardiaques, bien documentés sur plusieurs études, ont conduit à l'arrêt il y plusieurs années, des premières molécules (aminorex, fenfluramine, dexfenfluramine). Le benfluorex, introduit dans les années 1970 n'a été retiré que progressivement du marché des pays européens et très récemment en France. Si le lien entre benfluorex et HTAP ne semble pas certain, en revanche le développement de valvulopathie est bien démontré. La physiopathologie de l'HTAP et des maladies valvulaires induites par la prise d'anorexigènes n'est pas complètement élucidée. Cependant, plusieurs mécanismes ont été évoqués, dont la perte de régulation de la voie de la sérotonine ou le rôle de canaux potassium-dépendants, qui représentent les pistes les plus sérieuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Begriffe und Konzepte. 1.1. Public Health, Sozial- und Präventivmedizin, Partnerdisziplinen. 1.2. Sozialmedizin und Gesundheitssoziologie. 2. Methoden und Grundlagen. 2.1. Epidemiologie. 2.2. Biostatistik. 2.3. Demografie und Gesundheitsindikatoren. 3. Interventionen, Massnahmen und Anwendungen. 3.1. Organisation des Gesundheitswesens. 3.2. Versicherungsmedizin. 3.3. Prävention und Gesundheitsförderung. 3.4. Chronische und degenerative Krankheiten, Unfälle. 3.5. Infektionskrankheiten. 3.6. Humanernährung. 3.7. Ältere und Alte. 3.8. Arbeitsmedizin. 3.9. Umweltmedizin. 3.10. Internationale Gesundheit. Anhang.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La majorité des médecins méconnaissent les pathologies en lien avec le travail. Une enquête auprès de généralistes et spécialistes romands a dessiné les pistes prioritaires pour améliorer la prise en charge et la prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De part son expérience dans la surveillance et l'évaluation, ses compétences dans le domaine de la santé sexuelle et reproductive ainsi que son ancrage dans un large réseau de partenaires, l'Institut universitaire dedecine sociale et préventive (IUMSP) a été chargé par le Service de la santé publique (SSP) du Département de la santé et de l'action sociale (DSAS) de réaliser le suivi statistique des interruptions de grossesse effectuées dans le canton de Vaud. Le mandat prévoit en particulier que l'IUMSP : collecte les formulaires de déclaration d'interruption de grossesse transmis directement à l'IUMSP par les médecins (gynécologues-obstétriciens) et gère la qualité des informations transmises ; saisisse ces informations dans une base de données informatique ; produise un rapport annuel sur l'évolution des recours à l'interruption de grossesse dans le canton de Vaud ; participe aux discussions sur les orientations de prévention découlant des analyses statistiques et collabore à la diffusion écrite des résultats auprès des publics cibles concernés.Ce rapport présente les données relatives à l'année 2012. Il décrit en outre les tendances observées depuis 2003, première année de mise en application complète du nouveau cadre légal et de la modification du système de déclaration (cf. section 2.2).A des fins de synthèse, les données essentielles sont présentées dans le corps du texte et les analyses plus détaillées sont présentées dans des tableaux supplémentaires inclus en annexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Dispositif Cantonal d'Indication et de Suivi pour les personnes Toxicodépendantes (DCIST) est un outil central de la politique de prévention et de lutte contre la toxicodépendance dans le canton de Vaud a. Ses principaux objectifs sont : Améliorer l'adéquation entre l'offre de prestations et les besoins des usagers; Améliorer la coordination des prestations sociales et médicales en développant le travail en réseau, aussi bien dans la prise en charge de l'usager que dans son suivi et son maintien dans le réseau social et médical. Le DCIST a donc pour but de renforcer le rôle du canton de Vaud dans le pilotage et la planification des prestations dans le domaine de l'aide aux personnes dépendantes et s'adresse à toute personne toxicodépendante, avec ou sans problématique d'alcool associée, ayant un projet de prise en charge dans un établissement socio-éducatif (ESE). Le passage par ce dispositif est également un préalable nécessaire à l'octroi d'une garantie financière par le SPAS dans le cadre des séjours résidentiels.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement de méthodes de mesure de la qualité des soins et les actions visant à son amélioration font partie intégrante de la pratique quotidienne. Les infections nosocomiales représentent un Indicateur Incontournable et leur prévention apparaît comme un champ d'action privilégié du concept de l'amélioration continue de la qualité des soins. Dans ce domaine, de nombreuses mesures ont fait l'objet d'études répondant à des critères méthodologiques de qualité élevée, dont les résultats sont hautement significatifs au plan statistique. Les interventions complexes concernant par exemple l'ensemble des patients d'un service ou d'une institution ne permettent que difficilement de satisfaire à ces exigences méthodologiques. Sous certaines conditions, elle peuvent cependant avoir un impact réel et parfois durable sur la qualité des soins. A titre d'exemple, nous discutons deux interventions complexes dans le domaine de la prévention des infections nosocomiales, résultant de démarches visant à une amélioration globale et durable de la qualité des soins. L'utilisation d'outils épidémiologiques adaptés permet également d'estimer le bénéfice des Interventions en milieu hospitalier conformément à ce que la communauté scientifique reconnaît comme étant une recherche clinique de qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé grand public :Le cerveau se compose de cellules nerveuses appelées neurones et de cellules gliales dont font partie les astrocytes. Les neurones communiquent entre eux par signaux électriques et en libérant des molécules de signalisation comme le glutamate. Les astrocytes ont eux pour charge de capter le glucose depuis le sang circulant dans les vaisseaux sanguins, de le transformer et de le transmettre aux neurones pour qu'ils puissent l'utiliser comme source d'énergie. L'astrocyte peut ensuite utiliser ce glucose de deux façons différentes pour produire de l'énergie : la première s'opère dans des structures appelées mitochondries qui sont capables de produire plus de trente molécules riches en énergie (ATP) à partir d'une seule molécule de glucose ; la seconde possibilité appelée glycolyse peut produire deux molécules d'ATP et un dérivé du glucose appelé lactate. Une théorie couramment débattue propose que lorsque les astrocytes capturent le glutamate libéré par les neurones, ils libèrent en réponse du lactate qui servirait de base énergétique aux neurones. Cependant, ce mécanisme n'envisage pas une augmentation de l'activité des mitochondries des astrocytes, ce qui serait pourtant bien plus efficace pour produire de l'énergie.En utilisant la microscopie par fluorescence, nous avons pu mesurer les changements de concentrations ioniques dans les mitochondries d'astrocytes soumis à une stimulation glutamatergique. Nous avons démontré que les mitochondries des astrocytes manifestent des augmentations spontanées et transitoires de leur concentrations ioniques, dont la fréquence était diminuée au cours d'une stimulation avec du glutamate. Nous avons ensuite montré que la capture de glutamate augmentait la concentration en sodium et acidifiait les mitochondries des astrocytes. En approfondissant ces mécanismes, plusieurs éléments ont suggéré que l'acidification induite diminuerait le potentiel de synthèse d'énergie d'origine mitochondriale et la consommation d'oxygène dans les astrocytes. En résumé, l'ensemble de ces travaux suggère que la signalisation neuronale impliquant le glutamate dicte aux astrocytes de sacrifier temporairement l'efficacité de leur métabolisme énergétique, en diminuant l'activité de leurs mitochondries, afin d'augmenter la disponibilité des ressources énergétiques utiles aux neurones.Résumé :La remarquable efficacité du cerveau à compiler et propager des informations coûte au corps humain 20% de son budget énergétique total. Par conséquent, les mécanismes cellulaires responsables du métabolisme énergétique cérébral se sont adéquatement développés pour répondre aux besoins énergétiques du cerveau. Les dernières découvertes en neuroénergétique tendent à démontrer que le site principal de consommation d'énergie dans le cerveau est situé dans les processus astrocytaires qui entourent les synapses excitatrices. Un nombre croissant de preuves scientifiques a maintenant montré que le transport astrocytaire de glutamate est responsable d'un coût métabolique important qui est majoritairement pris en charge par une augmentation de l'activité glycolytique. Cependant, les astrocytes possèdent également un important métabolisme énergétique de type mitochondrial. Par conséquent, la localisation spatiale des mitochondries à proximité des transporteurs de glutamate suggère l'existence d'un mécanisme régulant le métabolisme énergétique astrocytaire, en particulier le métabolisme mitochondrial.Afin de fournir une explication à ce paradoxe énergétique, nous avons utilisé des techniques d'imagerie par fluorescence pour mesurer les modifications de concentrations ioniques spontanées et évoquées par une stimulation glutamatergique dans des astrocytes corticaux de souris. Nous avons montré que les mitochondries d'astrocytes au repos manifestaient des changements individuels, spontanés et sélectifs de leur potentiel électrique, de leur pH et de leur concentration en sodium. Nous avons trouvé que le glutamate diminuait la fréquence des augmentations spontanées de sodium en diminuant le niveau cellulaire d'ATP. Nous avons ensuite étudié la possibilité d'une régulation du métabolisme mitochondrial astrocytaire par le glutamate. Nous avons montré que le glutamate initie dans la population mitochondriale une augmentation rapide de la concentration en sodium due à l'augmentation cytosolique de sodium. Nous avons également montré que le relâchement neuronal de glutamate induit une acidification mitochondriale dans les astrocytes. Nos résultats ont indiqué que l'acidification induite par le glutamate induit une diminution de la production de radicaux libres et de la consommation d'oxygène par les astrocytes. Ces études ont montré que les mitochondries des astrocytes sont régulées individuellement et adaptent leur activité selon l'environnement intracellulaire. L'adaptation dynamique du métabolisme énergétique mitochondrial opéré par le glutamate permet d'augmenter la quantité d'oxygène disponible et amène au relâchement de lactate, tous deux bénéfiques pour les neurones.Abstract :The remarkable efficiency of the brain to compute and communicate information costs the body 20% of its total energy budget. Therefore, the cellular mechanisms responsible for brain energy metabolism developed adequately to face the energy needs. Recent advances in neuroenergetics tend to indicate that the main site of energy consumption in the brain is the astroglial process ensheating activated excitatory synapses. A large body of evidence has now shown that glutamate uptake by astrocytes surrounding synapses is responsible for a significant metabolic cost, whose metabolic response is apparently mainly glycolytic. However, astrocytes have also a significant mitochondrial oxidative metabolism. Therefore, the location of mitochondria close to glutamate transporters raises the question of the existence of mechanisms for tuning their energy metabolism, in particular their mitochondrial metabolism.To tackle these issues, we used real time imaging techniques to study mitochondrial ionic alterations occurring at resting state and during glutamatergic stimulation of mouse cortical astrocytes. We showed that mitochondria of intact resting astrocytes exhibited individual spontaneous and selective alterations of their electrical potential, pH and Na+ concentration. We found that glutamate decreased the frequency of mitochondrial Na+ transient activity by decreasing the cellular level of ATP. We then investigated a possible link between glutamatergic transmission and mitochondrial metabolism in astrocytes. We showed that glutamate triggered a rapid Na+ concentration increase in the mitochondrial population as a result of plasma-membrane Na+-dependent uptake. We then demonstrated that neuronally released glutamate also induced a mitochondrial acidification in astrocytes. Glutamate induced a pH-mediated and cytoprotective decrease of mitochondrial metabolism that diminished oxygen consumption. Taken together, these studies showed that astrocytes contain mitochondria that are individually regulated and sense the intracellular environment to modulate their own activity. The dynamic regulation of astrocyte mitochondrial energy output operated by glutamate allows increasing oxygen availability and lactate production both being beneficial for neurons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ L'exercice est utilisé dans le traitement de la lombalgie depuis plus de cent ans. La recherche dans ce domaine a commencé au milieu du XXème siècle puis s'est développée exponentiellement jusqu'à nos jours. La première étude de cette thèse a eu pour but de passer en revue cette abondante littérature scientifique. Il en est ressorti que l'exercice est un moyen efficace de prévention primaire et secondaire de la lombalgie. En tant que modalité de traitement, l'exercice permet de diminuer l'incapacité et la douleur et d'améliorer la condition physique et le statut professionnel des patients lombalgiques subaigus et chroniques. Parmi les caractéristiques de l'exercice, la supervision est essentielle. Des investigations ultérieures sont nécessaires afin d'identifier des sous-groupes de patients répondant favorablement à d'autres caractéristiques de l'exercice. L'exercice est souvent utilisé dans l'optique de maintenir les résultats obtenus à la suite d'un traitement, bien que peu d'études s'y soient penchées. La deuxième partie de cette thèse a eu pour objectifs d'évaluer l'efficacité d'un programme d'exercice (PE) suivi par des patients lombalgiques chroniques ayant complété une restauration fonctionnelle multidisciplinaire (RFM), en comparaison avec le suivi classique (SC) consistant simplement à encourager les patients à adopter un quotidien aussi actif que possible par la suite. Les résultats ont montré que les améliorations obtenues au terme de RFM étaient maintenues par les deux groupes à un an de suivi. Bien qu'aucune différence n'ait été obtenue entre les deux groupes, seul le groupe PE améliorait significativement l'incapacité et l'endurance isométrique des muscles du tronc. Une analyse économique a ensuite été réalisée afin d'évaluer la rentabilité de PE. L'évaluation de la qualité de vie des patients au terme de RFM et à un an de suivi permettait d'estimer les années de vie ajustées par leur qualité (QALYs) gagnées par chaque groupe. Les coûts directs (visites chez le médecin, spécialiste, physio, autres) et indirects (jours d'absence au travail) étaient estimés avant RFM et à un an de suivi à l'aide d'un agenda. Aucune différence significative n'était obtenue entre les groupes. Une mince différence de QALYs en faveur de PE ne se traduisait néanmoins pas en bénéfices mesurables. La recherche future devrait s'attacher à identifier un ou des sous-groupe(s) de patients pour lesquels SC ne permet pas de maintenir à long terme les améliorations obtenues au terme de RFM, et pour lesquels l'efficacité thérapeutique et la rentabilité économique de PE pourraient être accrues. ABSTRACT Exercise is used to treat low back pain for over a hundred years. Research in this area began in the mid-twentieth century and then grew exponentially until nowadays. The first study of this thesis was aimed to review this abundant scientific literature. It showed that exercise is effective in the primary and secondary prevention of low back pain. As a modality of treatment, exercise can reduce disability and pain and improve physical fitness and professional status of patients with subacute and chronic low back pain. Among different exercise characteristics, supervision is essential. Further investigations are needed to identify subgroups of patients responding positively to other characteristics of exercise. Exercise is often used as a post-treatment modality in order to maintain results over time, although only a few studies addressed this issue directly. The purpose of the second part of this thesis was to evaluate the effectiveness of an exercise program (EP) for patients with chronic low back pain who completed a functional multidisciplinary rehabilitation (FMR), compared to the routine follow-up (RF) which simply consisted of encouraging patients to adopt an active daily life thereafter. The results showed that improvements obtained at the end of FMR were maintained by both groups at one year follow-up. Although no difference was obtained between both groups, only the EP group significantly improved disability and isometric endurance of trunk muscles. An economic analysis was then carried out to assess the cost-effectiveness of EP. Based on the evaluation of patients' quality of life after FMR and at one year follow-up, an estimation of adjusted life years for their quality (QALYs) gained by each group was done. Direct costs (physician, specialist, physiotherapist, other therapists visits) and indirect costs (days off work) were measured before FMR and at one year follow-up using a cost diary. No significant difference was obtained between both groups. A slight difference in QALYs in favour of EP did yet not translate into measurable benefits. Future research should focus on identifying subgroups of patients for which RF is insufficient to reach long-term improvements after FMR, and for which the therapeutic effectiveness and cost-effectiveness of EP could be increased.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Régulation de l'expression de la Connexin36 dans les cellules sécrétrices d'insuline La communication intercellulaire est en partie assurée via des jonctions communicantes de type "gap". Dans la cellule ß pancréatique, plusieurs observations indiquent que le couplage assuré par des jonctions gap formées parla Connexine36 (Cx36) est impliqué dans le contrôle de la sécrétion de l'insuline. De plus, nous avons récemment démontré qu'un niveau précis d'expression de la Cx36 est nécessaire pour maintenir une bonne coordination de l'ensemble des cellules ß, et permettre ainsi une sécrétion synchrone et contrôlée d'insuline. Le développement du diabète et du syndrome métabolique est partiellement dû à une altération de la capacité des cellules ß à sécréter de l'insuline en réponse à une augmentation de la glycémie. Cette altération est en partie causée par l'augmentation prolongée des taux circulant de glucose, mais aussi de lipides, sous la forme d'acides gras libres, et de LDL (Low Density Lipoproteins), particules assurant le transport des acides gras et du cholestérol dans le sang. Nous avons étudié la régulation de l'expression de la Cx36 dans différentes conditions reflétant la physiopathologie du diabète de type 2 et du syndrome métabolique et démontré qu'une exposition prolongée à des concentrations élevées de glucose, de LDL, ainsi que de palmitate (acide gras saturé le plus abondant dans l'organisme), inhibent l'expression de la Cx36 dans les cellules ß. Cette inhibition implique l'activation de la PKA (Proteine Kinase A), qui stimule à son tour l'expression du facteur de transcription ICER-1 (Inductible cAMP Early Repressor-1). Ce puissant répresseur se fixe spécifiquement sur un motif CRE (cAMP Response Element), situé dans le promoteur du gène de la Cx36, inhibant ainsi son expression. Nous avons de plus démontré que des cytokines pro-inflammatoires, qui pourraient contribuer au développement du diabète, inhibent également l'expression de la Cx36. Cependant, les cytokines agissent indépendamment du répresseur ICER-1, mais selon un mécanisme requérant l'activation de l'AMPK (AMP dependant protein kinase). Sachant qu'un contrôle précis des niveaux d'expression de la Cx36 est un élément déterminant pour une sécrétion optimale de l'insuline, nos résultats suggèrent que la Cx36 pourrait être impliquée dans l'altération de la sécrétion de l'insuline contribuant à l'apparition du diabète de type 2. Summary A particular way by which cells communicate with each other is mediated by gap junctions, transmembrane structures providing a direct pathway for the diffusion of small molecules between adjacent cells. Gap junctional communication is required to maintain a proper functioning of insulin-secreting ß-cells. Moreover, the expression levels of connexin36 (Cx36), the sole gap junction protein expressed in ß-cells, are critical in maintaining glucose-stimulated insulin secretion. Chronic hyperglycemia and hyperlipidemia exert deleterious effects on insulin secretion and may contribute to the progressive ß-cell failure linked to the development of type 2 diabetes and metabolic syndrome. Since modulations of the Cx36 levels might impair ß-cell function, the general aim of this work was to elucidate wether elevated levels of glucose and lipids affect Cx36 expression. The first part of this work was dedicated to the study of the effect of high glucose concentrations on Cx36 expression. We demonstrated that glucose transcriptionally down-regulates the expression of Cx36 in insulin-secreting cells through activation of the protein kinase A (PKA), which in turn stimulates the expression of the inducible cAMP early repressor-1 (ICER-1). This repressor binds to a highly conserved cAMP response element (CRE) located in the Cx36 promoter, thereby inhibiting Cx36 expression. The second part of this thesis consisted in studying the effects of sustained exposure to free fatty acids (FFA) and human lipoproteins on Cx36 levels. The experiments revealed that the most abundant FFA, palmitate, as well as the atherogenic low density lipoproteins (LDL), also stimulate ICER-1 expression, resulting in Cx36 down-regulation. Finally, the third part of the work focused on the consequences of long-term exposure to proinflammatory cytokines on Cx36 content. Interleukin-1 ß (IL-1 ß) inhibits Cx36 expression and its effect is potentialized by tumor necrosis factor α (TNFα) and interferon γ (IFNγ). We further unveiled that the cytokines effect on Cx36 levels requires activation of the AMP dependent protein kinase (AMPK). Prolonged exposures to glucose, palmitate, LDL, and pro-inflammatory cytokines have all been proposed to contribute to the development of diabetes and metabolic syndrome. Since Cx36 expression levels are critical to maintain ß-cell function, Cx36 down-regulation by glucose, lipids, and cytokines might participate to the ß-cell failure associated with diabetes development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SummaryResearch projects presented in this thesis aimed to investigate two major aspects of the arenaviruses life cycle in the host cell: viral entry and the biosynthesis of the viral envelope glycoprotein.Old World arenaviruses (OWAV), such as Lassa virus (LASV) and lymphocytic choriomeningitis virus (LCMV), attach to the cell by binding to their receptor, alpha-dystroglycan. Virions are then internalized by a largely unknown pathway of endocytosis and delivered to the late endosome/lysosome where fusion occurs at low pH. In the major project of my thesis, we sought to identify cellular factors involved in OWAV cell entry. Our work indicates that OWAV cell entry requires microtubular transport and a functional multivesicular body (MVB) compartment. Infection indeed depends on phosphatidyl inositol 3-kinase (PI3K) activity and lysobisphosphatidic acid (LBPA), a lipid found in membranes of intraluminal vesicles (ILVs) of the MVB. We further found a requirement of factors that are part of the endosomal sorting complex required for transport (ESCRT), involved in the formation of ILVs. This suggests an ESCRT-mediated sorting of virus- receptor complex during the entry process.During viral replication, biosynthesis of viral glycoprotein takes place in the endoplasmic reticulum (ER) of the host cell. When protein load exceeds the folding capacity of the ER, the accumulation of unfolded proteins is sensed by three ER resident proteins, activating transcription factor 6 (ATF6), inositol-requiring enzyme 1 (IRE1) and PKR-like ER kinase (PERK), whose signaling induces the cellular unfolded protein response (UPR). Our results indicate that acute LCMV infection transiently induces the activation of the ATF6 branch of the UPR, whereas the PERK, and IRE1 axis of UPR are neither triggered nor blocked during infection. Our data also demonstrate that activation of ATF6 pathway is required for optimal viral replication during acute infection.The formation of the mature, fusion-active form of arenaviruses glycoproteins requires proteolytic cleavage mediated by the cellular protease subtilisin kexin isozyme-1 (SKI-l)/site-l protease (SIP). We show that targeting the SKI-1/S1P enzymatic activity with specific inhibitors is a powerful strategy to block arenaviruses productive infection. Moreover, characterization of protease function highlights differences in processing between cellular and viral substrates, opening new possibilities in term of drug development against human pathogenic arenaviruses.RésuméLes projets de recherche présentés dans cette thèse visaient à étudier deux aspects du cycle de vie des arenavirus: l'entrée du virus dans la cellule hôte et la biosynthèse de la glycoprotéine durant la réplication virale.Les arenavirus du vieux monde (OWAV), tels que le virus de Lassa (LASV) et le virus de la chorioméningite lymphocytaire (LCMV) s'attachent à la cellule hôte en se liant à leur récepteur, l'alpha-dystroglycane. Les virions sont ensuite intemalisés par une voie d'endocytose inconnue et livrés à l'endosome tardif/lysosome, où le pH acide permet la fusion entre l'enveloppe virale et la membrane du compartiment. Le projet principal de ma thèse consistait à identifier les facteurs cellulaires impliqués dans l'entrée des OWAV dans la cellule hôte. Nos résultats indiquent que l'entrée des OWAV nécessite le transport microtubulaire et la présence d'un corps multivésiculaire (MVB) fonctionnel. L'infection dépend en effet de l'activité de phosphatidyl inositol 3-kinase (PI3K) et de lysobisphosphatidic acid (LBPA), un lipide présent dans les membranes des vésicules intraluminales (ILVs) du MVB. Nous avons également trouvé l'implication de facteurs constituant l'endosomal sorting complex required for sorting (ESCRT) qui joue un rôle dans la formation des ILVs. Ces donnés suggèrent l'incorporation du complexe virus-récepteur dans des ILVs durant le processus d'entrée.Lors de la réplication virale, la biosynthèse de la glycoprotéine virale a lieu dans le réticulum endoplasmique (ER) de la cellule hôte. Lorsque la charge de protéines nouvellement synthétisées excède la capacité de pliage des protéines dans le ER, l'accumulation de protéines mal pliées est détectée par trois facteurs: activating transcription factor 6 (ATF6), inositol-requiring enzyme 1 (IRE1) et PKR-like ER kinase (PERK). Leur signalisation constitue la réponse cellulaire face aux protéines mal pliées (UPR). Nos résultats montrent que l'infection aiguë avec LCMV induit transitoirement l'activation de la voie de signalisation ATF6 alors que les axes PERK et IRE1 de l'UPR ne sont ni induits ni bloqués pendant l'infection. Nos données prouvent également que l'activation de la voie ATF6 est nécessaire à une réplication virale optimale lors de l'infection aiguë avec LCMV.La maturation des glycoprotéines des arenavirus nécessite un clivage protéolytique par la protéase cellulaire subtilisin kexin isozyme-1 (SKI-l)/site-l protease (SIP). Nous avons démontré que le ciblage de l'activité enzymatique de SKI-1/SIΡ avec des inhibiteurs spécifiques est une stratégie prometteuse pour bloquer l'infection par les arenavirus. La caractérisation du mécanisme d'action de la protéase a, par ailleurs, révélé des différences au niveau du clivage entre les substrats cellulaires et viraux, ce qui ouvre de nouvelles perspectives en terme de développement de médicaments contre les arenavirus pathogènes pour l'homme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.