487 resultados para Échelle de mesure
Resumo:
Dans une étude précédente, nous avons démontré qu'un soutieninformatique rappelant les Recommandations de Pratiques Cliniques(RPC) améliore la gestion de la douleur aiguë aux urgences à moyenterme (JEUR 2009;22:A88). Par contre, son acceptation par lessoignants et son impact sur leurs connaissances des RPC sontinconnus. But de l'étude: mesurer l'impact du logiciel en termesd'acceptation et connaissance des RPC par l'équipe soignante.Méthode: analyse de 2 questionnaires remplis par les médecins etinfirmiers: le 1er administré en pré-, post-déploiement et 6 mois plustard (phases P1, P2 et P3) qui a évalué: a) l'appréciation subjective desconnaissances des RPC par échelle de Lickert à 5 niveaux; b) lesconnaissances objectives des RPC à l'aide de 7 questions théoriques(score max. 7 points); le 2ème administré en P2 et P3, l'utilité perçue dulogiciel (échelle à 4 niveaux). Analyses statistiques par test de chi2outest exact de Fisher; p bilatéral <0.05 significatif. Résultats: la proportiondes soignants estimant avoir une bonne connaissance des RPC apassé de 48% (45/94) en P1, à 73% (83/114) puis 84% (104/124) en P2et P3, respectivement (p <0.0001). Score des connaissances: cftableau. Entre P2 et P3, l'appréciation globale de l'utilité du logiciel s'estaméliorée: la proportion des avis favorables a passé de 59% (47/79) à82% (96/117) (p = 0.001). Conclusion: ce logiciel a été bien accepté et apermis une amélioration significative des connaissances des RPC parles soignants.
Resumo:
Rapport de synthèse : But du travail : le pronostic des patients atteints d'ostéosarcome s'est considérablement amélioré grâce à l'utilisation de thérapies combinées performantes. Cependant, ces traitements agressifs sont grevés de complications chroniques. Notre travail a consisté à l'évaluation du status fonctionnel, psychologique et familial chez des patients survivants au long cours d'ostéosarcome traités au centre pluridisciplinaire d'oncologie. Patients et méthodes: 15 survivants au long cours d'ostéosarcome ont été évalués à la recherche de séquelles physiques et psychologiques. Pour l'évaluation fonctionnelle, nous avons utilisé la méthode de Enneking. L'évaluation psychologique a été basée sur un test d'évaluation globale (GHQ-28), sur un test de cohésion familiale (FAST test) et sur une échelle d'évaluation de symptômes post-traumatiques. Résultats: sur le plan fonctionnel, seuls 5 patients présentaient des séquelles graves et 10 des handicaps modérés. 4 patients souffraient de symptômes dépressifs. 6 patients ont décrit uns structure familiale déséquilibrée dont 3 des 4 patients avec des symptômes dépressifs, les 4 patients avec symptômes post-traumatiques et 5 des 7 patients avec une mauvaise acceptation émotionnelle. Conclusions: la plupart des patients souffrant d'ostéosarcome présentent une bonne récupération fonctionnelle. Seule une minorité reste sévèrement handicapée. Un tiers des patients souffre de symptômes dépressifs et de stress post-traumatique. Une mauvaise acceptation émotionnelle est fortement liée à une structure familiale déséquilibrée. La situation psychologique et familiale des patients atteints d'ostéosarcome doit donc être rapidement prise en compte afin d'améliorer leur évolution au long cours.
Resumo:
Summary : Lipid metabolism disorders, leading to obesity and cardiovascular diseases, are a major public health issue worldwide. These diseases have been treated by drugs and surgery, leading to tremendous costs and secondary morbidity. The aim of this thesis work is to investigate the mechanisms of actions of a new, micronutrition-based, approach to prevent obesity and cardiovascular diseases. This specific combination of micronutrients, Lipistase, incorporated into any dietary ail can be used in the daily food. Micronutrients are substances used by the living organism in small quantities to maintain physiological homeostasis. However, the human body is not able to produce them and has to obtain them from dietary sources. The combination of micronutrients investigated here, is composed of 26 compounds including trace elements, vitamins, minerals, ails and plant extracts, known to have individually a beneficial effect on lipid metabolism regulation. These specific micronutrients are used for the first time in a combinatorial mode targeting several metabolic pathways for better homeostasis control as opposed to a single target treatment, either chemical or natural. Short and long term studies, in different mouse strains, showed a significant decrease in plasma triglycerides, body weight gain and body fat mass in animals that were fed with a standard diet containing Lipistase. Additionally, a greatly reduced fat accumulation was observed in adipose tissue and liver of Lipistase-treated animals, while lipid and glucose utilization by skeletal muscle was enhanced. Moreover, the size of atherosclerotic plaques was significantly reduced in mice whose masher was treated during pregnancy and suckling, without showing any adverse effect. Finally, Lipistase has been shown to increase longevity by 20%. The control mice that did not receive Lipistase in their diet did not show all these beneficial effects. These micronutrients are used at the lowest dosage ever reported for treating Lipid disorders, resulting in far much lower costs as well as probably a higher safety. This is the first approach being very suitable for an effective large scale prevention policy for obesity and cardiovascular diseases, like iodine in dietary salt has been for goiter. Résumé : Les dysrégulations du métabolisme des lipids, à l'origine d'obésité et de maladies cardiovasculaires, sont un problème de santé publique majeur et mondial. Ces maladies impliquent des traitements médicamenteux et chirurgicaux dont le coût la morbidité secondaire sont très important. Le but de ce travail de thèse est d'étudier les mécanismes d'action d'une nouvelle approche préventive, basée sur la micronutrition. Cette combinaison spécifique de micronutriments, Lipistase, peut être incorporée dans n'importe quelle huile alimentaire et utilisée dans l'alimentation quotidienne. Les micronutrirnents sont des substances essentielles, à très faibles doses, pour le maintien de l'homéostasie physiologique des organismes vivants. Cependant, étant incapable de les synthétiser, le corps humain est dépendant en cela de l'apport alimentaire. La combinaison de micronutriments que nous avons étudié contient 26 composants, incluant des extraits de plantes, des huiles, des vitamines, des métaux et des minéraux, tous connus pour avoir individuellement des effets bénéfiques sur la régulation du métabolisme des lipides. Ces micronutriments spécifiques sont utilisés pour la première fois en mode combinatoire, ciblant ainsi plusieurs voies métaboliques pour un meilleur control de l'homéostasie, par opposition monothérapies chimiques ou naturelles. Des expériences de court et long terme, avec divers modèles de souris, ont montré une diminution significative des taux de triglycérides plasmatiques, de la prise de poids et de la masse graisseuse corporelle chez les animaux qui ont reçu Lipistase dans la nourriture standard. Une accumulation significativement moins importante des graisses a été observée dans le tissu adipeux et hépatique des souris traitées, alors que l'utilisation des lipides et glucose a été favorisée dans le muscle. En outre, la taille des plaques d'athérosclérose aété significativement réduite chez les souris dont la mère a été traitée pendant la grossesse et l'allaitement, sans montrer aucun effet indésirable. Enfin, les souris traitées par Lipistase ont vécu 20% plus longtèmps. Les souris contrôles qui n'ont pas reçu Lipistase dans la nourriture n'ont montré aucun de ces effets bénéfiques. Ces micronutriments sont utilisés au dosage le plus faible jamais rapporté pour le traitement des maladies du métabolisme lipidique, permettant ainsi un coût plus faible et surtout une meilleure sécurité. C'est une approche adéquate pour une politique de prévention de santé publique à large échelle de l'obésité et des maladies cardiovasculaires. C'est en cela et sous bien d'autres aspects, une première dans la prise en charge des maladies du métabolisme lipidique et pourrait même être pour ces dernières ce que l'iode du sel de cuisine a été pour le goitre.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Le cerveau est l'organe avec les besoins en énergie les plus élevés du corps humain, et le glucose est un substrat énergétique cérébral essentiel. Ces dernières décennies, la compréhension de la neuroénergétique a beaucoup évolué et un rôle du lactate comme substrat énergétique important a été mis en évidence, notamment suite à l'introduction du modèle de l'ANLS (astrocyte-neuron lactate shuttle). Selon celui-ci, les astrocytes convertissent le glucose en lactate par réaction de glycolyse, puis il est transporté jusqu'aux neurones qui l'utilisent comme source d'énergie à travers le cycle de Krebs. Chez l'homme, divers travaux récents ont montré que le lactate peut servir de « carburant » cérébral chez le sujet sain, après effort intense ou chez le patient diabétique. La régulation métabolique et le rôle du lactate après lésion cérébrale aiguë sont encore peu connus. Présentation de l'article Le but de ce travail a été d'étudier le métabolisme cérébral du lactate chez les patients atteints de traumatisme crânien (TCC) sévère. Nous avons émis l'hypothèse que l'augmentation du lactate cérébral chez ces patients n'était pas associée de manière prédominante à une hypoxie ou une ischémie mais plutôt à une glycolyse aérobie, et également à une perfusion cérébrale normale. L'étude a porté sur une cohorte prospective de 24 patients avec TCC sévère admis au service de médecine intensive du CHUV (centre hospitalier universitaire vaudois), monitorés par un système combinant microdialyse cérébrale (outil permettant de mesurer divers métabolites cérébraux, tels que le lactate, le pyruvate et le glucose), mesure de la pression cérébrale en oxygène et de la pression intracrânienne. Cet outil nous a permis de déterminer si l'élévation du lactate était principalement associée à une glycolyse active ou plutôt à une hypoxie. L'utilisation du CTde perfusion a permis d'évaluer la relation entre les deux patterns d'élévation du lactate (glycolytique ou hypoxique) et la perfusion cérébrale globale. Nos résultats ont montré que l'augmentation du lactate cérébral chez les patients avec TCC sévère était associée de manière prédominante à une glycolyse aérobie plutôt qu'à une hypoxie/ischémie. D'autre part, nous avons pu confirmer que les épisodes de lactate glycolytique étaient toujours associés à une perfusion cérébrale normale ou augmentée, alors que les épisodes de lactate hypoxique étaient associés à une hypoperfusion cérébrale. Conclusions et perspectives Nos résultats, qui ont permis de mieux comprendre le métabolisme cérébral du lactate chez les patients avec TCC sévère, soutiennent le concept que le lactate est produit dans des conditions aérobes et pourrait donc être utilisé comme source d'énergie par le cerveau lésé pour subvenir à des besoins augmentas. Etant donné que la dysfonction énergétique est une des probables causes de perte neuronale après traumatisme crânien, ces résultats ouvrent des perspectives thérapeutiques nouvelles après agression cérébrale chez l'homme, visant à tester un potentiel effet neuroprotecteur via l'administration de lactate exogène.
Resumo:
SUMMARYAstrocytes represent the largest cell population in the human brain. In addition to a well established role as metabolic support for neuronal activity, in the last years these cells have been found to accomplish other important and, sometimes, unexpected functions. The tight enwrapping of synapses by astrocytic processes and the predominant expression of glutamate uptake carriers in the astrocytic rather than neuronal plasma membranes brought to the definition of a critical involvement of astrocytes in the clearance of glutamate from synaptic junctions. Moreover, several publications showed that astrocytes are able to release chemical transmitters (gliotransmitters) suggesting their active implication in the control of synaptic functions. Among gliotransmitters, the best characterized is glutamate, which has been proposed to be released from astrocytes in a Ca2+ dependent manner via exocytosis of synaptic-like microvesicles.In my thesis I present results leading to substantial advancement of the understanding of the mechanisms by which astrocytes modulate synaptic activity in the hippocampus, notably at excitatory synapses on dentate granule cells. I show that tumor necrosis factor- alpha (TNFa), a molecule that is generally involved in immune system functions, critically controls astrocyte-to-synapse communication (gliotransmission) in the brain. With constitutive levels of TNFa present, activation of purinergic G protein-coupled receptors in astrocytes, called P2Y1 receptors, induces localized intracellular calcium ([Ca2+]j) elevation in astrocytic processes (measured by two-photon microscopy) followed by glutamate release and activation of pre-synaptic NMDA receptors resulting in synaptic potentiation. In preparations lacking TNFa, astrocytes respond with identical [Ca2+]i elevations but fail to induce neuromodulation. I find that TNFa specifically controls the glutamate release step of gliotransmission. Addition of very low (picomolar) TNFa concentrations to preparations lacking the cytokine, promptly reconstitutes both normal exocytosis in cultured astrocytes and gliotransmission in hippocampal slices. These data provide the first demonstration that gliotransmission and its synaptic effects are controlled not only by astrocyte [Ca2+]i elevations but also by permissive/homeostatic factors like TNFa.In addition, I find that higher and presumably pathological TNFa concentrations do not act just permissively but instead become direct and potent triggers of glutamate release from astrocytes, leading to a strong enhancement of excitatory synaptic activity. The TNFa action, like the one observed upon P2Y1R activation, is mediated by pre-synaptic NMDA receptors, but in this case the effect is long-lasting, and not reversible. Moreover, I report that a necessary molecular target for this action of TNFa is TNFR1, one of the two specific receptors for the cytokine, as I found that TNFa was unable to induce synaptic potentiation when applied in slices from TNFR1 knock-out (Tnfrlv") mice. I then created a double transgenic mouse model where TNFR1 is knocked out in all cells but can be re-expressed selectively in astrocytes and I report that activation of the receptors in these cells is sufficient to reestablish TNFa-dependent long-lasting potentiation of synaptic activity in the TNFR1 knock-out mice.I therefore discovered that TNFa is a primary molecule displaying both permissive and instructive roles on gliotransmission controlling synaptic functions. These reports might have profound implications for the understanding of both physiological and pathological processes associated to TNFa production, including inflammatory processes in the brain.RÉSUMÉLes astrocytes sont les cellules les plus abondantes du cerveau humain. Outre leur rôle bien établi dans le support métabolique de l'activité neuronale, d'autres fonctions importantes, et parfois inattendues de ces cellules ont été mises en lumière au cours de ces dernières années. Les astrocytes entourent étroitement les synapses de leurs fins processus qui expriment fortement les transporteurs du glutamate et permettent ainsi aux astrocytes de jouer un rôle critique dans l'élimination du glutamate de la fente synaptique. Néanmoins, les astrocytes semblent être capables de jouer un rôle plus intégratif en modulant l'activité synaptique, notamment par la libération de transmetteurs (gliotransmetteurs). Le gliotransmetteur le plus étudié est le glutamate qui est libéré par l'exocytose régulée de petites vésicules ressemblant aux vésicules synaptiques (SLMVs) via un mécanisme dépendant du calcium.Les résultats présentés dans cette thèse permettent une avancée significative dans la compréhension du mode de communication de ces cellules et de leur implication dans la transmission de l'information synaptique dans l'hippocampe, notamment des synapses excitatrices des cellules granulaires du gyrus dentelé. J'ai pu montrer que le « facteur de nécrose tumorale alpha » (TNFa), une cytokine communément associée au système immunitaire, est aussi fondamentale pour la communication entre astrocyte et synapse. Lorsqu'un niveau constitutif très bas de TNFa est présent, l'activation des récepteurs purinergiques P2Y1 (des récepteurs couplés à protéine G) produit une augmentation locale de calcium (mesurée en microscopie bi-photonique) dans l'astrocyte. Cette dernière déclenche ensuite une libération de glutamate par les astrocytes conduisant à l'activation de récepteurs NMDA présynaptiques et à une augmentation de l'activité synaptique. En revanche, dans la souris TNFa knock-out cette modulation de l'activité synaptique par les astrocytes n'est pas bien qu'ils présentent toujours une excitabilité calcique normale. Nous avons démontré que le TNFa contrôle spécifiquement l'exocytose régulée des SLMVs astrocytaires en permettant la fusion synchrone de ces vésicules et la libération de glutamate à destination des récepteurs neuronaux. Ainsi, nous avons, pour la première fois, prouvé que la modulation de l'activité synaptique par l'astrocyte nécessite, pour fonctionner correctement, des facteurs « permissifs » comme le TNFa, agissant sur le mode de sécrétion du glutamate astrocytaire.J'ai pu, en outre, démontrer que le TNFa, à des concentrations plus élevées (celles que l'on peut observer lors de conditions pathologiques) provoque une très forte augmentation de l'activité synaptique, agissant non plus comme simple facteur permissif mais bien comme déclencheur de la gliotransmission. Le TNFa provoque 1'activation des récepteurs NMD A pré-synaptiques (comme dans le cas des P2Y1R) mais son effet est à long terme et irréversible. J'ai découvert que le TNFa active le récepteur TNFR1, un des deux récepteurs spécifiques pour le TNFa. Ainsi, l'application de cette cytokine sur une tranche de cerveau de souris TNFR1 knock-out ne produit aucune modification de l'activité synaptique. Pour vérifier l'implication des astrocytes dans ce processus, j'ai ensuite mis au point un modèle animal doublement transgénique qui exprime le TNFR1 uniquement dans les astrocytes. Ce dernier m'a permis de prouver que l'activation des récepteurs TNFR1 astrocytaires est suffisante pour induire une augmentation de l'activité synaptique de manière durable.Nous avons donc découvert que le TNFa possède un double rôle, à la fois un rôle permissif et actif, dans le contrôle de la gliotransmission et, par conséquent, dans la modulation de l'activité synaptique. Cette découverte peut potentiellement être d'une extrême importance pour la compréhension des mécanismes physiologiques et pathologiques associés à la production du TNFa, en particulier lors de conditions inflammatoires.RÉSUMÉ GRAND PUBLICLes astrocytes représentent la population la plus nombreuse de cellules dans le cerveau humain. On sait, néanmoins, très peu de choses sur leurs fonctions. Pendant très longtemps, les astrocytes ont uniquement été considérés comme la colle du cerveau, un substrat inerte permettant seulement de lier les cellules neuronales entre elles. Il n'y a que depuis peu que l'on a découvert de nouvelles implications de ces cellules dans le fonctionnement cérébral, comme, entre autres, une fonction de support métabolique de l'activité neuronale et un rôle dans la modulation de la neurotransmission. C'est ce dernier aspect qui fait l'objet de mon projet de thèse.Nous avons découvert que l'activité des synapses (régions qui permettent la communication d'un neurone à un autre) qui peut être potentialisée par la libération du glutamate par les astrocytes, ne peut l'être que dans des conditions astrocytaires très particulières. Nous avons, en particulier, identifié une molécule, le facteur de nécrose tumorale alpha (TNFa) qui joue un rôle critique dans cette libération de glutamate astrocytaire.Le TNFa est surtout connu pour son rôle dans le système immunitaire et le fait qu'il est massivement libéré lors de processus inflammatoires. Nous avons découvert qu'en concentration minime, correspondant à sa concentration basale, le TNFa peut néanmoins exercer un rôle indispensable en permettant la communication entre l'astrocyte et le neurone. Ce mode de fonctionnement est assez probablement représentatif d'un processus physiologique qui permet d'intégrer la communication astrocyte/neurone au fonctionnement général du cerveau. Par ailleurs, nous avons également démontré qu'en quantité plus importante, le TNFa change son mode de fonctionnement et agit comme un stimulateur direct de la libération de glutamate par l'astrocyte et induit une activation persistante de l'activité synaptique. Ce mode de fonctionnement est assez probablement représentatif d'un processus pathologique.Nous sommes également arrivés à ces conclusions grâce à la mise en place d'une nouvelle souche de souris doublement transgéniques dans lesquelles seuls les astrocytes (etnon les neurones ou les autres cellules cérébrales) sont capables d'être activés par le TNFa.
Resumo:
The Helvetic nappe system in Western Switzerland is a stack of fold nappes and thrust sheets em-placed at low grade metamorphism. Fold nappes and thrust sheets are also some of the most common features in orogens. Fold nappes are kilometer scaled recumbent folds which feature a weakly deformed normal limb and an intensely deformed overturned limb. Thrust sheets on the other hand are characterized by the absence of overturned limb and can be defined as almost rigid blocks of crust that are displaced sub-horizontally over up to several tens of kilometers. The Morcles and Doldenhom nappe are classic examples of fold nappes and constitute the so-called infra-Helvetic complex in Western and Central Switzerland, respectively. This complex is overridden by thrust sheets such as the Diablerets and Wildhörn nappes in Western Switzerland. One of the most famous example of thrust sheets worldwide is the Glariis thrust sheet in Central Switzerland which features over 35 kilometers of thrusting which are accommodated by a ~1 m thick shear zone. Since the works of the early Alpine geologist such as Heim and Lugeon, the knowledge of these nappes has been steadily refined and today the geometry and kinematics of the Helvetic nappe system is generally agreed upon. However, despite the extensive knowledge we have today of the kinematics of fold nappes and thrust sheets, the mechanical process leading to the emplacement of these nappe is still poorly understood. For a long time geologist were facing the so-called 'mechanical paradox' which arises from the fact that a block of rock several kilometers high and tens of kilometers long (i.e. nappe) would break internally rather than start moving on a low angle plane. Several solutions were proposed to solve this apparent paradox. Certainly the most successful is the theory of critical wedges (e.g. Chappie 1978; Dahlen, 1984). In this theory the orogen is considered as a whole and this change of scale allows thrust sheet like structures to form while being consistent with mechanics. However this theoiy is intricately linked to brittle rheology and fold nappes, which are inherently ductile structures, cannot be created in these models. When considering the problem of nappe emplacement from the perspective of ductile rheology the problem of strain localization arises. The aim of this thesis was to develop and apply models based on continuum mechanics and integrating heat transfer to understand the emplacement of nappes. Models were solved either analytically or numerically. In the first two papers of this thesis we derived a simple model which describes channel flow in a homogeneous material with temperature dependent viscosity. We applied this model to the Morcles fold nappe and to several kilometer-scale shear zones worldwide. In the last paper we zoomed out and studied the tectonics of (i) ductile and (ii) visco-elasto-plastic and temperature dependent wedges. In this last paper we focused on the relationship between basement and cover deformation. We demonstrated that during the compression of a ductile passive margin both fold nappes and thrust sheets can develop and that these apparently different structures constitute two end-members of a single structure (i.e. nappe). The transition from fold nappe to thrust sheet is to first order controlled by the deformation of the basement. -- Le système des nappes helvétiques en Suisse occidentale est un empilement de nappes de plis et de nappes de charriage qui se sont mis en place à faible grade métamorphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement défor-mé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Mordes et la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glariis en Suisse centrale se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. Aujourd'hui la géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général. Malgré cela, les processus mécaniques par lesquels ces nappes se sont mises en place restent mal compris. Pendant toute la première moitié du vingtième siècle les géologues les géologues ont été confrontés au «paradoxe mécanique». Celui-ci survient du fait qu'un bloc de roche haut de plusieurs kilomètres et long de plusieurs dizaines de kilomètres (i.e., une nappe) se fracturera de l'intérieur plutôt que de se déplacer sur une surface frictionnelle. Plusieurs solutions ont été proposées pour contourner cet apparent paradoxe. La solution la plus populaire est la théorie des prismes d'accrétion critiques (par exemple Chappie, 1978 ; Dahlen, 1984). Dans le cadre de cette théorie l'orogène est considéré dans son ensemble et ce simple changement d'échelle solutionne le paradoxe mécanique (la fracturation interne de l'orogène correspond aux nappes). Cette théorie est étroitement lié à la rhéologie cassante et par conséquent des nappes de plis ne peuvent pas créer au sein d'un prisme critique. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la méca-nique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous avons dérivé un modèle d'écoulement dans un chenal d'un matériel homogène dont la viscosité dépend de la température. Nous avons appliqué ce modèle à la nappe de Mordes et à plusieurs zone de cisaillement d'échelle kilométrique provenant de différents orogènes a travers le monde. Dans le dernier article nous avons considéré le problème à l'échelle de l'orogène et avons étudié la tectonique de prismes (i) ductiles, et (ii) visco-élasto-plastiques en considérant les transferts de chaleur. Nous avons démontré que durant la compression d'une marge passive ductile, a la fois des nappes de plis et des nappes de charriages peuvent se développer. Nous avons aussi démontré que nappes de plis et de charriages sont deux cas extrêmes d'une même structure (i.e. nappe) La transition entre le développement d'une nappe de pli ou d'une nappe de charriage est contrôlé au premier ordre par la déformation du socle. -- Le système des nappes helvétiques en Suisse occidentale est un emblement de nappes de plis et de nappes de chaînage qui se sont mis en place à faible grade métamoiphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement déformé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Morcles and la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glarüs en Suisse centrale est certainement l'exemple de nappe de charriage le plus célèbre au monde. Elle se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. La géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général parmi les géologues. Au contraire les processus physiques par lesquels ces nappes sont mises en place reste mal compris. Les sédiments qui forment les nappes alpines se sont déposés à l'ère secondaire et à l'ère tertiaire sur le socle de la marge européenne qui a été étiré durant l'ouverture de l'océan Téthys. Lors de la fermeture de la Téthys, qui donnera naissance aux Alpes, le socle et les sédiments de la marge européenne ont été déformés pour former les nappes alpines. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la mécanique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous nous sommes intéressés à la localisation de la déformation à l'échelle d'une nappe. Nous avons appliqué le modèle développé à la nappe de Morcles et à plusieurs zones de cisaillement provenant de différents orogènes à travers le monde. Dans le dernier article nous avons étudié la relation entre la déformation du socle et la défonnation des sédiments. Nous avons démontré que nappe de plis et nappes de charriages constituent les cas extrêmes d'un continuum. La transition entre nappe de pli et nappe de charriage est intrinsèquement lié à la déformation du socle sur lequel les sédiments reposent.
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.
Resumo:
Les résultats des recherches contemporaines, montrant notamment l'importance du raisonnement fluide, de la mémoire de travail (IMT) et de la vitesse de traitement (IVT) dans le fonctionnement cognitif, ont conduit les concepteurs de la WAIS-IV à introduire de nouvelles épreuves pour renforcer l'évaluation de ces dimensions cognitives. L'interprétation des scores de la WAIS-IV repose maintenant sur quatre indices factoriels (ICV, IRP, IMT et IVT), ainsi que sur le QIT. Les concepteurs de la WAIS-IV indiquent que l'un des objectifs de la révision consistait à actualiser les fondements théoriques de cette échelle. Pourtant, la structure globale de la WAIS-IV ne correspond que partiellement à celle proposée dans le modèle qui fait consensus aujourd'hui, le modèle de Cattell-Horn-Carroll (CHC). Par exemple, la WAIS-IV ne propose pas d'indice de raisonnement fluide, bien que les constructeurs soulignent l'importance de cette dimension dans le fonctionnement cognitif. Dans cet article, nous proposons, pour la WAIS-IV, les normes francophones de cinq scores composites CHC, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm), et l'IVT (Gs). Ces normes ont été établies en utilisant une procédure d'approximation statistique. À l'instar des scores CHC que nous avons proposés pour le WISCIV, ces normes pour la WAIS-IV permettent aux cliniciens de basculer vers une grille d'interprétation basée sur le modèle dominant et d'utiliser les cinq scores composites CHC en complément des quatre indices standard dans le cadre d'analyses normatives et ipsatives.
Resumo:
Résumé tout public : Le développement du diabète de type II et de l'obésité est causé par l'interaction entre des gènes de susceptibilité et des facteurs environnementaux, en particulier une alimentation riche en calories et une activité physique insuffisante. Afín d'évaluer le rôle de l'alimentation en absence d'hétérogénéité génétique, nous avons nourri une lignée de souris génétiquement pure avec un régime extrêmement gras. Ce régime a conduit à l'établissement de différents phénotypes parmi ces souris, soit : un diabète et une obésité (ObD), un diabète mais pas d'obésité (LD) ou ni un diabète, ni une obésité (LnD). Nous avons fait l'hypothèse que ces adaptations différentes au stress nutritionnel induit par le régime gras étaient dues à l'établissement de programmes génétiques différents dans les principaux organes impliqués dans le maintien de l'équilibre énergétique. Afin d'évaluer cette hypothèse, nous avons développé une puce à ADN contenant approximativement 700 gènes du métabolisme. Cette puce à ADN, en rendant possible la mesure simultanée de l'expression de nombreux gènes, nous a permis d'établir les profils d'expression des gènes caractéristiques de chaque groupe de souris nourries avec le régime gras, dans le foie et le muscle squelettique. Les données que nous avons obtenues à partir de ces profils d'expression ont montré que des changements d'expression marqués se produisaient dans le foie et le muscle entre les différents groupes de souris nourries avec le régime gras. Dans l'ensemble, ces changements suggèrent que l'établissement du diabète de type II et de l'obésité induits par un régime gras est associé à une synthèse accrue de lipides par le foie et à un flux augmenté de lipides du foie jusqu'à la périphérie (muscles squelettiques). Dans un deuxième temps, ces profils d'expression des gènes ont été utilisés pour sélectionner un sous-ensemble de gènes suffisamment discriminants pour pouvoir distinguer entre les différents phénotypes. Ce sous-ensemble de gènes nous a permis de construire un classificateur phénotypique capable de prédire avec une précision relativement élevée le phénotype des souris. Dans le futur, de tels « prédicteurs » basés sur l'expression des gènes pourraient servir d'outils pour le diagnostic de pathologies liées au métabolisme. Summary: Aetiology of obesity and type II diabetes is multifactorial, involving both genetic and environmental factors, such as calory-rich diets or lack of exercice. Genetically homogenous C57BL/6J mice fed a high fat diet (HFD) up to nine months develop differential adaptation, becoming either obese and diabetic (ObD) or remaining lean in the presence (LD) or absence (LnD) of diabetes development. Each phenotype is associated with diverse metabolic alterations, which may result from diverse molecular adaptations of key organs involved in the control of energy homeostasis. In this study, we evaluated if specific patterns of gene expression could be associated with each different phenotype of HFD mice in the liver and the skeletal muscles. To perform this, we constructed a metabolic cDNA microarray containing approximately 700 cDNA representing genes involved in the main metabolic pathways of energy homeostasis. Our data indicate that the development of diet-induced obesity and type II diabetes is linked to some defects in lipid metabolism, involving a preserved hepatic lipogenesis and increased levels of very low density lipoproteins (VLDL). In skeletal muscles, an increase in fatty acids uptake, as suggested by the increased expression of lipoprotein lipase, would contribute to the increased level of insulin resistance observed in the ObD mice. Conversely, both groups of lean mice showed a reduced expression in lipogenic genes, particularly stearoyl-CoA desaturase 1 (Scd-1), a gene linked to sensitivity to diet-induced obesity. Secondly, we identified a subset of genes from expression profiles that classified with relative accuracy the different groups of mice. Such classifiers may be used in the future as diagnostic tools of each metabolic state in each tissue. Résumé Développement d'une puce à ADN métabolique et application à l'étude d'un modèle murin d'obésité et de diabète de type II L'étiologie de l'obésité et du diabète de type II est multifactorielle, impliquant à la fois des facteurs génétiques et environnementaux, tels que des régimes riches en calories ou un manque d'exercice physique. Des souris génétiquement homogènes C57BL/6J nourries avec un régime extrêmement gras (HFD) pendant 9 mois développent une adaptation métabolique différentielle, soit en devenant obèses et diabétiques (ObD), soit en restant minces en présence (LD) ou en absence (LnD) d'un diabète. Chaque phénotype est associé à diverses altérations métaboliques, qui pourraient résulter de diverses adaptations moléculaires des organes impliqués dans le contrôle de l'homéostasie énergétique. Dans cette étude, nous avons évalué si des profils d'expression des gènes dans le foie et le muscle squelettique pouvaient être associés à chacun des phénotypes de souris HFD. Dans ce but, nous avons développé une puce à ADN métabolique contenant approximativement 700 ADNc représentant des gènes impliqués dans les différentes voies métaboliques de l'homéostasie énergétique. Nos données indiquent que le développement de l'obésité et du diabète de type II induit par un régime gras est associé à certains défauts du métabolisme lipidique, impliquant une lipogenèse hépatique préservée et des niveaux de lipoprotéines de très faible densité (VLDL) augmentés. Au niveau du muscle squelettique, une augmentation du captage des acides gras, suggéré par l'expression augmentée de la lipoprotéine lipase, contribuerait à expliquer la résistance à l'insuline plus marquée observée chez les souris ObD. Au contraire, les souris minces ont montré une réduction marquée de l'expression des gènes lipogéniques, en particulier de la stéaroyl-CoA désaturase 1 (scd-1), un gène associé à la sensibilité au développement de l'obésité par un régime gras. Dans un deuxième temps, nous avons identifié un sous-ensemble de gènes à partir des profils d'expression, qui permettent de classifier avec une précision relativement élevée les différents groupes de souris. De tels classificateurs pourraient être utilisés dans le futur comme outils pour le diagnostic de l'état métabolique d'un tissu donné.
Resumo:
Abstract: The improvement in antiretroviral drug therapy has transformed HIV infection into a chronic disease. However, treatment failure and drug toxicity are frequent. Inadequate response to treatment is clearly multifactorial and, therefore, dosage individualisation based on demographic factors, genetic markers and measurement of cellular and plasma drug level may enhance both drug efficacy and tolerability. At present, antiretroviral drugs levels are monitored in plasma, whereas only drugs penetrating into cells are able to exert an antiviral activity, suggesting that cellular drug determination may more confidently reflect drug exposure at the site of pharmacological action. The overall objective of this thesis is to provide a better understanding of the Pharmacokinetic and pharmacogenetic factors influencing the plasma and cellular disposition of antiretroviral drugs. To that endeavour, analytical methods for the measurements of plasma and cellular drug levels have been developed and validated using liquid chromatography methods coupled with ultraviolet and tandem mass spectrometry detection, respectively. Correlations between plasma and cellular exposures were assessed during observational and experimental studies. Cytochrome (CYP) 2B6, efflux transporters (ABCB1, ABCC1, ABCC2 and ABCG2) and orosomucoid (ORM) polymorphisms were determined and were related to plasma and cellular exposures, as well as toxicity of antiretroviral drugs. A Pharmacokinetic population model was developed to characterise inter- and intra-patient variability of atazanavir pharmacokinetics, and to identify covariates influencing drug disposition. In that context, a Pharmacokinetic interaction study between atazanavir and lopinavir, both boosted with ritonavir, has beén conducted to assess the safety and pharmacokinetics of this boosted double-protease inhibitors regimen. Well to moderately-correlated cellular and plasma drug levels are .observed or protease inhibitors, whereas for efavirenz and nevirapine these correlations are weak. Cellular exposure, and CYP2B6 genotype (516G>T) are predictors of efavirenz neuropsychological toxicity. Nevirapine plasma exposure is also influenced by CYPZB6 polymorphism. Nelfinavir cellular exposure appears to be significantly associated only with ABCB1 genotype (3435C>T and intron 26 + 80T>C). Indinavir and lopinavir clearance and lopinavir cellular/plasma exposure ratio are influenced by the concentration of the variant S of ORM, suggesting-a specific binding of these drugs to this variant. Nelfinavir and efavirenz are not influenced by ORM concentration and phenotype. The Pharmacokinetic parameters of atazanavir are adequately described by our population model. The atazanavir-lopinavir interaction study indicates no influence on plasma and cellular atazanavir pharmacokinetics, while limited decrease in lopinavir concentrations was observed after atazanavir addition. The residual variability unexplained by the considered variables suggests that other covariates either uncontrolled at present or remaining to be identified, such as genetic and environmental factors influence antiretroviral drug pharmacokinetics, with substantial impact on treatment efficacy and tolerability. In that context, a comprehensive approach taking into account drug pharmacokinetics and patient genetic background is expected to contribute to increase treatment success, and to reduce the occurrence of adverse drug reactions by stratifying patients in an individualised antiretroviral therapy approach. Résumé Facteurs pharmacocinétiques et pharmacogénétiques influençant l'exposition plasmatique et cellulaire des antirétroviraux Les progrès de la thérapie antirétrovirale ont transformé l'infection par le VIH d'une affection mortelle à une maladie chronique. En dépit de ce succès, l'échec thérapeutique et la toxicité médicamenteuse restent fréquents. Une réponse inadéquate au traitement est clairement multifactorielle et une individualisation de la posologie des médicaments qui se baserait sur les facteurs démographiques et génétiques des patients et sur les taux sanguins des médicaments pourrait améliorer à la fois l'efficacité et la tolérance de la thérapie. Par ailleurs, seules les concentrations plasmatiques sont actuellement considérées pour le suivi thérapeutique des médicaments, alors que les taux cellulaires pourraient mieux refléter l'activité de ses médicaments qui agissent au niveau intracellulaire. L'objectif global de cette thèse était de mieux comprendre les facteurs pharmacocinétiques et pharmacocénétiques influençant l'exposition plasmatique et cellulaire des médicaments antirétroviraux. A cet effet, des méthodes pour quantifier les concentrations plasmatiques et cellulaires des antirétroviraux ont été développées et validées en utilisant la chromatographie liquide couplée à la détection ultraviolette et la spectrométrie de masse en tandem, respectivement. La corrélation entre l'exposition cellulaire et plasmatique de ces médicaments a été étudiée lors d'études observationnelles et expérimentales. Les polymorphismes du cytochrome (CYP) 2B6, ainsi que des transporteurs d'efflux (ABCB1, ABCC1, ABCC2 et ABCG2) et de l'orosomucoïde (ORM) ont été déterminés et corrélés avec l'exposition plasmatique et cellulaire des antirétroviraux, ainsi qu'à leur toxicité. Un modèle de pharmacocinétique de population a été établi afin de caractériser la variabilité inter- et intra-individuelle de l'atazanavir, et d'identifier les covariables pouvant influencer le devenir de ce médicament. Dans ce contexte, une étude d'interaction entre l'atazanavir et le lopinavir a été effectuée afin de déterminer la sécurité et le profil pharmacocinétique de ce régime thérapeutique. Des corrélations modérées à bonnes ont été observées entre les taux cellulaires et plasmatiques des inhibiteurs de protéase, alors que pour l'efavirenz et la névirapine ces corrélations sont faibles. L'exposition cellulaire, ainsi que le génotype du CYP2B6 (516G>T) sont des indices de la toxicité neuropsychologique de l'efavirenz. L'exposition plasmatique de la névirapine est également influencée par le polymorphisme du CYPZB6. L'exposition cellulaire du nelfinavir est significativement associée au génotype du ABCB1 (3435C>T et intron 26 + 80T>C). La clairance de l'indinavir et du lopinavir, ainsi que le rapport entre exposition cellulaire et plasmatique du lopinavir sont influencés par la concentration du variant S de l'ORM, suggérant une liaison spécifique de ces médicaments à ce variant. La clairance du nelfinavir et de l'efavirenz n'est pas influencée ni par la concentration ni par le phénotype de l'ORM. Les paramètres pharmacocinétiques de l'atazanavir ont été décrits de façon adéquate par le modèle de population proposé. De plus, le lopinavir n'influence pas les concentrations plasmatiques et cellulaires de l'atazanavir; alors que celui-ci conduit à une baisse limitée des taux de lopinavir. L'importante variabilité pharmacocinétique des antirétroviraux suggère que d'autres facteurs génétiques et environnementaux -qui restent encore à découvrir- influencent également leur disponibilité. Dans un proche futur, une prise en charge qui tienne. compte de la pharmacocinétique des médicaments et des caractéristiques génétiques du patient devrait permettre d'individualiser le traitement, contribuant certainement à une amélioration de la réponse thérapeutique et à une diminution de la toxicité. Résumé grand public Facteurs pharmacocinétiques et pharmacogénétiques influençant l'exposition plasmatique et cellulaire des antirétroviraux Les progrès effectués dans le traitement de l'infection par le virus de l'immunodéficience humaine acquise (VIH), ont permis de transformer une maladie avec un pronostic sombre, en une maladie chronique traitable avec des médicaments de plus en plus efficaces. Malgré ce succès, de nombreux patients ne répondent pas de façon optimale à leur traitement et/ou souffrent d'effets indésirables médicamenteux entraînant fréquemment une modification de leur thérapie. Actuellement, le suivi de la réponse au traitement s'effectue par la mesure chez les patients de la quantité de virus et du nombre des cellules immunitaires dans le sang, ainsi que par la concentration sanguine des médicaments administrés. Cependant, comme le virus se réplique à l'intérieur de la cellule, la mesure des concentrations médicamenteuses au niveau intracellulaire pourrait mieux refléter l'activité pharmacologique au site d'action. De plus, il a été possible de mettre en évidence la grande variabilité des concentrations plasmatiques de médicaments chez des patients prenant pourtant la même dose de médicament. Comme cette variabilité est notamment due à des facteurs génétiques qui sont susceptibles d'influencer la réponse au traitement antirétroviral, des analyses génétiques ont été également effectuées chez ces patients. Cette thèse a eu pour objectif de mieux comprendre les facteurs pharmacologiques et génétiques influençant l'activité et la toxicité des médicaments antirétroviraux afin de réduire la variabilité de la réponse thérapeutique. A cet effet, une méthode de dosage permettant la quantification des médicaments anti-HIV au niveau intracellulaire a été développée. Par ailleurs, nos études ont également porté .sur les variations génétiques influençant la quantité et l'activité des protéines impliquées dans le métabolisme et dans le transport des médicaments antirétroviraux. Enfin, les conséquences de ces variations sur la réponse clinique et la toxicité du traitement ont été évaluées. Nos études ont mis en évidence des associations significatives entre les variations génétiques considérées et la concentration sanguine, cellulaire et la toxicité de quelques médicaments antirétroviraux. La complémentarité des connaissances pharmacologiques, génétiques et virales pourrait aboutir à une stratégie globale permettant d'individualiser le traitement et la dose administrée, en fonction des caractéristiques propres de chaque patient. Cette approche pourrait contribuer à une optimisation du traitement antirétroviral dans la perspective d'une meilleure- efficacité thérapeutique à long terme et d'une diminution des effets indésirables rencontrés.
Resumo:
Abstract : The role of order effects has been widely shown and discussed in areas such as memory and social impression formation. This work focuses in a first half on order effects influencing the verdict chosen at the end of a criminal trial. Contrary to impression formation but according to trial's characteristics, it has been hypothesised that a recency effect would influence the verdict's choice. Three groups of students (N = 576) received a mock trial resume with a specific order stemming from the combination of three witnesses, one expert and two ocular witnesses. Results show a recency effect, the last testimony provoking significantly more acquittals if discriminating, and more condemnations if incriminating. The second half of this work starts from Gestalt and sociopsychological researches presenting numerous insights into cognitive organization of perceptions and opinions. It has been postulated that a witness probative value will change according to the emitted verdict, an incriminating witness or expert possessing a higher probative value in a condemning verdict than in an innocenting one, on the other hand a discriminating witness or expert having a higher probative value in an acquittal than in a condemnation. Results using a seven points scale measuring witnesses' probative value confirm this hypothesis. Argumentations written by the subjects to explain their verdict and refering to the accusing expert also show a congruency effect as categories of arguments are identical in case of condemnation or acquittal, the only difference between both types of verdicts residing in the frequency of these categories following the judgement, higher use of incriminating arguments in case of guiltiness and higher use of discriminating ones if the accused is found innocent. Résumé : L'intervention des effets sériels a fait l'objet de nombreuses recherches dans le domaine de la mémoire et de la formation d'impression en psychologie sociale. Ce travail s'intéresse dans une première partie aux effets d'ordre pouvant influencer le choix du verdict à la fin d'un procès pénal. Contrairement aux résultats obtenus en matière de formation d'impression, mais conformément aux caractéristiques d'un procès, l'hypothèse de l'intervention d'un effet de récence a été formulée, affirmant que les derniers témoins influencent le plus le choix du verdict. Trois groupes d'étudiants (N = 576) ont lu le résumé d'un procès fictif présentant trois témoignages, deux témoins visuels à décharge et un expert à charge. Chaque groupe recevait un ordre spécifique de présentation des témoins de sorte que l'expert se trouvait en première, deuxième ou troisième position. Les résultats montrent un effet de récence, le dernier témoin provoquant davantage d'acquittements s'il est disculpant et davantage de condamnations s'il est inculpant. La seconde partie de ce travail émane des recherches effectuées dans le domaine de la théorie de la forme et de la psychologie sociale ayant un intérêt marqué pour l'organisation cognitive de nos perceptions et de nos opinions. L'hypothèse que nous avons posée souligne le lien entretenu entre l'évaluation de la force probante d'un témoin et le verdict émis : un témoignage discriminant possédera plus de poids en cas d'acquittement qu'en cas de condamnation, inversement un témoignage incriminant aura plus de poids en cas de condamnation qu'en cas d'acquittement. L'utilisation d'une échelle en sept points mesurant la force probante des deux types de témoins confirme cette hypothèse, l'estimation de la valeur accordée à un même témoin variant selon le type de verdict choisi. Les argumentations de chaque verdict ont également montré que les catégories d'arguments se référant à l'expert étaient identiques en cas de condamnation ou d'acquittement de l'inculpé, par contre les fréquences de ces catégories entretiennent un lien congruent avec le verdict, celles inculpantes étant majoritairement utilisées pour asseoir la culpabilité mais peu représentées en cas d'acquittement, inversement celles disculpantes apparaissant bien plus lorsqu'il s'agit d'innocenter l'inculpé que pour le condamner.
Resumo:
Summary [résumé français voir ci-dessous] From the beginning of the 20th century the world population has been confronted with the human immune deficiency virus 1 (HIV-1). This virus has the particularity to mutate fast, and could thus evade and adapt to the human host. Our closest evolutionary related organisms, the non-human primates, are less susceptible to HIV-1. In a broader sense, primates are differentially susceptible to various retrovirus. Species specificity may be due to genetic differences among primates. In the present study we applied evolutionary and comparative genetic techniques to characterize the evolutionary pattern of host cellular determinants of HIV-1 pathogenesis. The study of the evolution of genes coding for proteins participating to the restriction or pathogenesis of HIV-1 may help understanding the genetic basis of modern human susceptibility to infection. To perform comparative genetics analysis, we constituted a collection of primate DNA and RNA to allow generation of de novo sequence of gene orthologs. More recently, release to the public domain of two new primate complete genomes (bornean orang-utan and common marmoset) in addition of the three previously available genomes (human, chimpanzee and Rhesus monkey) help scaling up the evolutionary and comparative genome analysis. Sequence analysis used phylogenetic and statistical methods for detecting molecular adaptation. We identified different selective pressures acting on host proteins involved in HIV-1 pathogenesis. Proteins with HIV-1 restriction properties in non-human primates were under strong positive selection, in particular in regions of interaction with viral proteins. These regions carried key residues for the antiviral activity. Proteins of the innate immunity presented an evolutionary pattern of conservation (purifying selection) but with signals of relaxed constrain if we compared them to the average profile of purifying selection of the primate genomes. Large scale analysis resulted in patterns of evolutionary pressures according to molecular function, biological process and cellular distribution. The data generated by various analyses served to guide the ancestral reconstruction of TRIM5a a potent antiviral host factor. The resurrected TRIM5a from the common ancestor of Old world monkeys was effective against HIV-1 and the recent resurrected hominoid variants were more effective against other retrovirus. Thus, as the result of trade-offs in the ability to restrict different retrovirus, human might have been exposed to HIV-1 at a time when TRIM5a lacked the appropriate specific restriction activity. The application of evolutionary and comparative genetic tools should be considered for the systematical assessment of host proteins relevant in viral pathogenesis, and to guide biological and functional studies. Résumé La population mondiale est confrontée depuis le début du vingtième siècle au virus de l'immunodéficience humaine 1 (VIH-1). Ce virus a un taux de mutation particulièrement élevé, il peut donc s'évader et s'adapter très efficacement à son hôte. Les organismes évolutivement le plus proches de l'homme les primates nonhumains sont moins susceptibles au VIH-1. De façon générale, les primates répondent différemment aux rétrovirus. Cette spécificité entre espèces doit résider dans les différences génétiques entre primates. Dans cette étude nous avons appliqué des techniques d'évolution et de génétique comparative pour caractériser le modèle évolutif des déterminants cellulaires impliqués dans la pathogenèse du VIH- 1. L'étude de l'évolution des gènes, codant pour des protéines impliquées dans la restriction ou la pathogenèse du VIH-1, aidera à la compréhension des bases génétiques ayant récemment rendu l'homme susceptible. Pour les analyses de génétique comparative, nous avons constitué une collection d'ADN et d'ARN de primates dans le but d'obtenir des nouvelles séquences de gènes orthologues. Récemment deux nouveaux génomes complets ont été publiés (l'orang-outan du Bornéo et Marmoset commun) en plus des trois génomes déjà disponibles (humain, chimpanzé, macaque rhésus). Ceci a permis d'améliorer considérablement l'étendue de l'analyse. Pour détecter l'adaptation moléculaire nous avons analysé les séquences à l'aide de méthodes phylogénétiques et statistiques. Nous avons identifié différentes pressions de sélection agissant sur les protéines impliquées dans la pathogenèse du VIH-1. Des protéines avec des propriétés de restriction du VIH-1 dans les primates non-humains présentent un taux particulièrement haut de remplacement d'acides aminés (sélection positive). En particulier dans les régions d'interaction avec les protéines virales. Ces régions incluent des acides aminés clé pour l'activité de restriction. Les protéines appartenant à l'immunité inné présentent un modèle d'évolution de conservation (sélection purifiante) mais avec des traces de "relaxation" comparé au profil général de sélection purifiante du génome des primates. Une analyse à grande échelle a permis de classifier les modèles de pression évolutive selon leur fonction moléculaire, processus biologique et distribution cellulaire. Les données générées par les différentes analyses ont permis la reconstruction ancestrale de TRIM5a, un puissant facteur antiretroviral. Le TRIM5a ressuscité, correspondant à l'ancêtre commun entre les grands singes et les groupe des catarrhiniens, est efficace contre le VIH-1 moderne. Les TRIM5a ressuscités plus récents, correspondant aux ancêtres des grands singes, sont plus efficaces contre d'autres rétrovirus. Ainsi, trouver un compromis dans la capacité de restreindre différents rétrovirus, l'homme aurait été exposé au VIH-1 à une période où TRIM5a manquait d'activité de restriction spécifique contre celui-ci. L'application de techniques d'évolution et de génétique comparative devraient être considérées pour l'évaluation systématique de protéines impliquées dans la pathogenèse virale, ainsi que pour guider des études biologiques et fonctionnelles
Resumo:
Les évangiles du Nouveau Testament ne sont pas les premiers textes écrits sur Jésus. Il existe des sources antérieures dont se sont inspirés les évangélistes. Après un travail de dix ans mené par des exégètes nord-américains et allemands, on est désormais en mesure de présenter aujourd'hui l'un de ces textes primitifs, dont la reconstitution ouvre des perspectives fascinantes. Il s'agit d'un recueil de paroles de Jésus dont se sont inspirés les auteurs des évangiles de Luc et de Matthieu. Le texte comprend essentiellement des paroles de Jésus à l'accent très engagé dont on peut supposer qu'elles sont très proches des paroles réelles tenues par le Christ au cours de son ministère terrestre. Ce texte ne comprend pas de récit de crucifixion et de résurrection, ce qui ajoute à la fascination de cette reconstitution. Il est ici intégralement traduit en français et précédé d'une introduction qui présente cet évangile inconnu ?