969 resultados para Mesure de mitigation
Resumo:
Résumé : Les concentrations plasmatiques du peptide natriurétique de type B sont augmentées chez les diabétiques de type 2 atteints de complications vasculaires. But : Les concentrations plasmatiques du peptide natriurétique de type B (NT-proBNP) sont augmentées chez les diabétiques de type 2 atteints de complications vasculaires. Les concentrations plasmatiques du peptide natriurétique de type B (BNP), ou de sa pro-hormone (NT-proBNP), sont reconnues depuis peu comme marqueur de choix de la dysfonction cardiaque. Les diabétiques de type 2 sont à haut risque de développer des complications cardiovasculaires. L'objectif de cette étude a été de déterminer si les concentrations plasmatiques de NT-proBNP étaient comparables chez des diabétiques de type 2 avec ou sans complications vasculaires. Méthodes : Nous avons mesuré le NT-proBNP plasmatique chez 54 diabétiques de type 2, 27 sans complications micro- ou macrovasculaires et 27 présentant des complications soit micro- soit macrovasculaires, soit les deux. Le même dosage a été effectué chez 38 témoins sains, appariés pour l'âge et le sexe avec les diabétiques. Résultat : Le NT-proBNP plasmatique était plus élevé chez les diabétiques avec complications (médiane 121 pg/ml, intervalle interquartile 50-240 pg/ml) que chez ceux sans complications (37 pg/ml, 21-54 pg/ml, P < 0,01). Comparés au groupe témoin (55 pg/ml, 40-79 pg/ml), seuls les diabétiques avec complications vasculaires avaient un NT-proBNP plasmatique significativement augmenté (P < 0,001). Chez les diabétiques la maladie coronarienne et la néphropathie (définie selon l'excrétion urinaire d'albumine) étaient chacune associée de façon indépendante avec une augmentation des concentrations plasmatiques de NT-proBNP. Conclusion : Chez les diabétiques de type 2 souffrant de complications micro- ou macrovasculaires, les concentrations plasmatiques de NT-proBNP sont augmentées par rapport à celles des malades indemnes de complications vasculaires. L'augmentation de sécrétion de ce peptide est associée de façon indépendante avec la maladie coronarienne et la néphropathie. La mesure du NT-proBNP plasmatique pourrait donc être utile pour dépister la présence de complications micro- ou macrovasculaires.
Resumo:
Cet article est un compte-rendu du colloque "Evolution in Structured Population", tenu du 14 au 16 Septembre 1994 à l'Université de Lausanne. Consacré aux causes écologiques et conséquences évolutives d'horizons divers (zoologie, botanique, anthropologie, mathématiques), utilisant des approches variées, aussi bien empiriques que théoriques. Plusieurs exemples concrets de structurations génétiques de populations naturelles ont été documentés, et leurs causes analysées. Celles-ci sont variées, certaines étant extrinsèques à la biologie des espèces concernées (distances géographique, barrières écologiques, etc), d'autres intrinsèques (stratégies de reproduction, mutations chromosomiques). Les outils quantitatifs les plus largement utilisés pour analyser ces structures restent les F-statistiques de Whright; elles ont néanmoins fait l'objet de plusieurs critiques: d'une part, elles n'exploitent pas toute l'information disponible (certains orateurs ont d'ailleurs proposé diverses améliorations dans ce sens); d'autre part, les hypothèses qui sous-tendent leur interprétation conventionelle (en particulier l'hypothèse de populations à l'équilibre) sont régulièrement violées. Plusieurs des travaux présentés se sont précisément intéressés aux situations de déséquilibre et à leurs conséquences sur la dynamique et l'évolution des populations. Parmi celles ci: l'effet d'extinctions démiques sur les stratégies de dispersion des organismes et la structure génétique de leurs métapopulations, l'inadéquation du modèle classique de métapopulation, dit modèle en île (les modèles de diffusion ou de "pas japonais" (stepping stone) semblent généralement préférables), et le rôle de la "viscosité" des populations, en particulier en relation avec la sélection de parentèle et l'évolution de structures sociales. Le rôle important d'événements historiques sur les structures actuelles a été souligné, notamment dans le cadre de contacts secondaires entre populations hautement différenciées, leur introgression possible et la biogéographie de taxons vicariants. Parmi les problèmes récurrents notés: l'identification de l'unité panmictique, l'échelle de mesure spatiale appropriée, et les difficulté d'estimation des taux de migration et de flux de gènes. Plusieurs auteurs ont relevé la nécessité d'études biologiques de détail: les structures génétiques n'ont d'intérêt que dans la mesure où elles peuvent être situées dans un contexte écologique et évolutif précis. Ce point a été largement illustré dans le cadre des realtions entre structures génétiques et stratégies de reproduction/dispersion.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Forms State hazard mitigation team, chaired by Department of Public Defense, Disaster Services Division, to determine capabilitites of State agencies, provide assistance, improve preparedness, response, and recovery from disasters.
Resumo:
Le cerveau est l'organe avec les besoins en énergie les plus élevés du corps humain, et le glucose est un substrat énergétique cérébral essentiel. Ces dernières décennies, la compréhension de la neuroénergétique a beaucoup évolué et un rôle du lactate comme substrat énergétique important a été mis en évidence, notamment suite à l'introduction du modèle de l'ANLS (astrocyte-neuron lactate shuttle). Selon celui-ci, les astrocytes convertissent le glucose en lactate par réaction de glycolyse, puis il est transporté jusqu'aux neurones qui l'utilisent comme source d'énergie à travers le cycle de Krebs. Chez l'homme, divers travaux récents ont montré que le lactate peut servir de « carburant » cérébral chez le sujet sain, après effort intense ou chez le patient diabétique. La régulation métabolique et le rôle du lactate après lésion cérébrale aiguë sont encore peu connus. Présentation de l'article Le but de ce travail a été d'étudier le métabolisme cérébral du lactate chez les patients atteints de traumatisme crânien (TCC) sévère. Nous avons émis l'hypothèse que l'augmentation du lactate cérébral chez ces patients n'était pas associée de manière prédominante à une hypoxie ou une ischémie mais plutôt à une glycolyse aérobie, et également à une perfusion cérébrale normale. L'étude a porté sur une cohorte prospective de 24 patients avec TCC sévère admis au service de médecine intensive du CHUV (centre hospitalier universitaire vaudois), monitorés par un système combinant microdialyse cérébrale (outil permettant de mesurer divers métabolites cérébraux, tels que le lactate, le pyruvate et le glucose), mesure de la pression cérébrale en oxygène et de la pression intracrânienne. Cet outil nous a permis de déterminer si l'élévation du lactate était principalement associée à une glycolyse active ou plutôt à une hypoxie. L'utilisation du CTde perfusion a permis d'évaluer la relation entre les deux patterns d'élévation du lactate (glycolytique ou hypoxique) et la perfusion cérébrale globale. Nos résultats ont montré que l'augmentation du lactate cérébral chez les patients avec TCC sévère était associée de manière prédominante à une glycolyse aérobie plutôt qu'à une hypoxie/ischémie. D'autre part, nous avons pu confirmer que les épisodes de lactate glycolytique étaient toujours associés à une perfusion cérébrale normale ou augmentée, alors que les épisodes de lactate hypoxique étaient associés à une hypoperfusion cérébrale. Conclusions et perspectives Nos résultats, qui ont permis de mieux comprendre le métabolisme cérébral du lactate chez les patients avec TCC sévère, soutiennent le concept que le lactate est produit dans des conditions aérobes et pourrait donc être utilisé comme source d'énergie par le cerveau lésé pour subvenir à des besoins augmentas. Etant donné que la dysfonction énergétique est une des probables causes de perte neuronale après traumatisme crânien, ces résultats ouvrent des perspectives thérapeutiques nouvelles après agression cérébrale chez l'homme, visant à tester un potentiel effet neuroprotecteur via l'administration de lactate exogène.
Resumo:
Rescinds Executive Order #54 and replaces it with a new team called the Primary Iowa Harzard Mitigation Team to coordinate state response to natural and technological disaters.
Resumo:
SUMMARYAstrocytes represent the largest cell population in the human brain. In addition to a well established role as metabolic support for neuronal activity, in the last years these cells have been found to accomplish other important and, sometimes, unexpected functions. The tight enwrapping of synapses by astrocytic processes and the predominant expression of glutamate uptake carriers in the astrocytic rather than neuronal plasma membranes brought to the definition of a critical involvement of astrocytes in the clearance of glutamate from synaptic junctions. Moreover, several publications showed that astrocytes are able to release chemical transmitters (gliotransmitters) suggesting their active implication in the control of synaptic functions. Among gliotransmitters, the best characterized is glutamate, which has been proposed to be released from astrocytes in a Ca2+ dependent manner via exocytosis of synaptic-like microvesicles.In my thesis I present results leading to substantial advancement of the understanding of the mechanisms by which astrocytes modulate synaptic activity in the hippocampus, notably at excitatory synapses on dentate granule cells. I show that tumor necrosis factor- alpha (TNFa), a molecule that is generally involved in immune system functions, critically controls astrocyte-to-synapse communication (gliotransmission) in the brain. With constitutive levels of TNFa present, activation of purinergic G protein-coupled receptors in astrocytes, called P2Y1 receptors, induces localized intracellular calcium ([Ca2+]j) elevation in astrocytic processes (measured by two-photon microscopy) followed by glutamate release and activation of pre-synaptic NMDA receptors resulting in synaptic potentiation. In preparations lacking TNFa, astrocytes respond with identical [Ca2+]i elevations but fail to induce neuromodulation. I find that TNFa specifically controls the glutamate release step of gliotransmission. Addition of very low (picomolar) TNFa concentrations to preparations lacking the cytokine, promptly reconstitutes both normal exocytosis in cultured astrocytes and gliotransmission in hippocampal slices. These data provide the first demonstration that gliotransmission and its synaptic effects are controlled not only by astrocyte [Ca2+]i elevations but also by permissive/homeostatic factors like TNFa.In addition, I find that higher and presumably pathological TNFa concentrations do not act just permissively but instead become direct and potent triggers of glutamate release from astrocytes, leading to a strong enhancement of excitatory synaptic activity. The TNFa action, like the one observed upon P2Y1R activation, is mediated by pre-synaptic NMDA receptors, but in this case the effect is long-lasting, and not reversible. Moreover, I report that a necessary molecular target for this action of TNFa is TNFR1, one of the two specific receptors for the cytokine, as I found that TNFa was unable to induce synaptic potentiation when applied in slices from TNFR1 knock-out (Tnfrlv") mice. I then created a double transgenic mouse model where TNFR1 is knocked out in all cells but can be re-expressed selectively in astrocytes and I report that activation of the receptors in these cells is sufficient to reestablish TNFa-dependent long-lasting potentiation of synaptic activity in the TNFR1 knock-out mice.I therefore discovered that TNFa is a primary molecule displaying both permissive and instructive roles on gliotransmission controlling synaptic functions. These reports might have profound implications for the understanding of both physiological and pathological processes associated to TNFa production, including inflammatory processes in the brain.RÉSUMÉLes astrocytes sont les cellules les plus abondantes du cerveau humain. Outre leur rôle bien établi dans le support métabolique de l'activité neuronale, d'autres fonctions importantes, et parfois inattendues de ces cellules ont été mises en lumière au cours de ces dernières années. Les astrocytes entourent étroitement les synapses de leurs fins processus qui expriment fortement les transporteurs du glutamate et permettent ainsi aux astrocytes de jouer un rôle critique dans l'élimination du glutamate de la fente synaptique. Néanmoins, les astrocytes semblent être capables de jouer un rôle plus intégratif en modulant l'activité synaptique, notamment par la libération de transmetteurs (gliotransmetteurs). Le gliotransmetteur le plus étudié est le glutamate qui est libéré par l'exocytose régulée de petites vésicules ressemblant aux vésicules synaptiques (SLMVs) via un mécanisme dépendant du calcium.Les résultats présentés dans cette thèse permettent une avancée significative dans la compréhension du mode de communication de ces cellules et de leur implication dans la transmission de l'information synaptique dans l'hippocampe, notamment des synapses excitatrices des cellules granulaires du gyrus dentelé. J'ai pu montrer que le « facteur de nécrose tumorale alpha » (TNFa), une cytokine communément associée au système immunitaire, est aussi fondamentale pour la communication entre astrocyte et synapse. Lorsqu'un niveau constitutif très bas de TNFa est présent, l'activation des récepteurs purinergiques P2Y1 (des récepteurs couplés à protéine G) produit une augmentation locale de calcium (mesurée en microscopie bi-photonique) dans l'astrocyte. Cette dernière déclenche ensuite une libération de glutamate par les astrocytes conduisant à l'activation de récepteurs NMDA présynaptiques et à une augmentation de l'activité synaptique. En revanche, dans la souris TNFa knock-out cette modulation de l'activité synaptique par les astrocytes n'est pas bien qu'ils présentent toujours une excitabilité calcique normale. Nous avons démontré que le TNFa contrôle spécifiquement l'exocytose régulée des SLMVs astrocytaires en permettant la fusion synchrone de ces vésicules et la libération de glutamate à destination des récepteurs neuronaux. Ainsi, nous avons, pour la première fois, prouvé que la modulation de l'activité synaptique par l'astrocyte nécessite, pour fonctionner correctement, des facteurs « permissifs » comme le TNFa, agissant sur le mode de sécrétion du glutamate astrocytaire.J'ai pu, en outre, démontrer que le TNFa, à des concentrations plus élevées (celles que l'on peut observer lors de conditions pathologiques) provoque une très forte augmentation de l'activité synaptique, agissant non plus comme simple facteur permissif mais bien comme déclencheur de la gliotransmission. Le TNFa provoque 1'activation des récepteurs NMD A pré-synaptiques (comme dans le cas des P2Y1R) mais son effet est à long terme et irréversible. J'ai découvert que le TNFa active le récepteur TNFR1, un des deux récepteurs spécifiques pour le TNFa. Ainsi, l'application de cette cytokine sur une tranche de cerveau de souris TNFR1 knock-out ne produit aucune modification de l'activité synaptique. Pour vérifier l'implication des astrocytes dans ce processus, j'ai ensuite mis au point un modèle animal doublement transgénique qui exprime le TNFR1 uniquement dans les astrocytes. Ce dernier m'a permis de prouver que l'activation des récepteurs TNFR1 astrocytaires est suffisante pour induire une augmentation de l'activité synaptique de manière durable.Nous avons donc découvert que le TNFa possède un double rôle, à la fois un rôle permissif et actif, dans le contrôle de la gliotransmission et, par conséquent, dans la modulation de l'activité synaptique. Cette découverte peut potentiellement être d'une extrême importance pour la compréhension des mécanismes physiologiques et pathologiques associés à la production du TNFa, en particulier lors de conditions inflammatoires.RÉSUMÉ GRAND PUBLICLes astrocytes représentent la population la plus nombreuse de cellules dans le cerveau humain. On sait, néanmoins, très peu de choses sur leurs fonctions. Pendant très longtemps, les astrocytes ont uniquement été considérés comme la colle du cerveau, un substrat inerte permettant seulement de lier les cellules neuronales entre elles. Il n'y a que depuis peu que l'on a découvert de nouvelles implications de ces cellules dans le fonctionnement cérébral, comme, entre autres, une fonction de support métabolique de l'activité neuronale et un rôle dans la modulation de la neurotransmission. C'est ce dernier aspect qui fait l'objet de mon projet de thèse.Nous avons découvert que l'activité des synapses (régions qui permettent la communication d'un neurone à un autre) qui peut être potentialisée par la libération du glutamate par les astrocytes, ne peut l'être que dans des conditions astrocytaires très particulières. Nous avons, en particulier, identifié une molécule, le facteur de nécrose tumorale alpha (TNFa) qui joue un rôle critique dans cette libération de glutamate astrocytaire.Le TNFa est surtout connu pour son rôle dans le système immunitaire et le fait qu'il est massivement libéré lors de processus inflammatoires. Nous avons découvert qu'en concentration minime, correspondant à sa concentration basale, le TNFa peut néanmoins exercer un rôle indispensable en permettant la communication entre l'astrocyte et le neurone. Ce mode de fonctionnement est assez probablement représentatif d'un processus physiologique qui permet d'intégrer la communication astrocyte/neurone au fonctionnement général du cerveau. Par ailleurs, nous avons également démontré qu'en quantité plus importante, le TNFa change son mode de fonctionnement et agit comme un stimulateur direct de la libération de glutamate par l'astrocyte et induit une activation persistante de l'activité synaptique. Ce mode de fonctionnement est assez probablement représentatif d'un processus pathologique.Nous sommes également arrivés à ces conclusions grâce à la mise en place d'une nouvelle souche de souris doublement transgéniques dans lesquelles seuls les astrocytes (etnon les neurones ou les autres cellules cérébrales) sont capables d'être activés par le TNFa.
Resumo:
The Seedling Mile in Linn County, Iowa, was part of the Lincoln Highway Association’s so-called “object lesson” program that sought to graphically demonstrate, in the paving of selected one-mile demonstration sections, the benefits of concrete paving to improving road travel across the nation. Constructed in 1918-19, this Seedling Mile became much more than an object lesson and served as something of a battleground between two municipalities—Marion and Cedar Rapids—in their struggle over the county seat and their place on the Lincoln Highway. The Seedling Mile eventually became part of a continuously paved section of the Lincoln Highway between Chicago and Cedar Rapids, with the whole of the Lincoln Highway in Iowa paved in some fashion by the 1930s. In 2002, Linn County reconstructed Mt. Vernon Road from the City of Mt. Vernon to the west end of the Seedling Mile impacting the historic road section. An agreement between concerned government agencies resulted in this publication in partial mitigation of the impact to this historic road section under the guidelines of the National Historic Preservation Act.
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.
Resumo:
Résumé tout public : Le développement du diabète de type II et de l'obésité est causé par l'interaction entre des gènes de susceptibilité et des facteurs environnementaux, en particulier une alimentation riche en calories et une activité physique insuffisante. Afín d'évaluer le rôle de l'alimentation en absence d'hétérogénéité génétique, nous avons nourri une lignée de souris génétiquement pure avec un régime extrêmement gras. Ce régime a conduit à l'établissement de différents phénotypes parmi ces souris, soit : un diabète et une obésité (ObD), un diabète mais pas d'obésité (LD) ou ni un diabète, ni une obésité (LnD). Nous avons fait l'hypothèse que ces adaptations différentes au stress nutritionnel induit par le régime gras étaient dues à l'établissement de programmes génétiques différents dans les principaux organes impliqués dans le maintien de l'équilibre énergétique. Afin d'évaluer cette hypothèse, nous avons développé une puce à ADN contenant approximativement 700 gènes du métabolisme. Cette puce à ADN, en rendant possible la mesure simultanée de l'expression de nombreux gènes, nous a permis d'établir les profils d'expression des gènes caractéristiques de chaque groupe de souris nourries avec le régime gras, dans le foie et le muscle squelettique. Les données que nous avons obtenues à partir de ces profils d'expression ont montré que des changements d'expression marqués se produisaient dans le foie et le muscle entre les différents groupes de souris nourries avec le régime gras. Dans l'ensemble, ces changements suggèrent que l'établissement du diabète de type II et de l'obésité induits par un régime gras est associé à une synthèse accrue de lipides par le foie et à un flux augmenté de lipides du foie jusqu'à la périphérie (muscles squelettiques). Dans un deuxième temps, ces profils d'expression des gènes ont été utilisés pour sélectionner un sous-ensemble de gènes suffisamment discriminants pour pouvoir distinguer entre les différents phénotypes. Ce sous-ensemble de gènes nous a permis de construire un classificateur phénotypique capable de prédire avec une précision relativement élevée le phénotype des souris. Dans le futur, de tels « prédicteurs » basés sur l'expression des gènes pourraient servir d'outils pour le diagnostic de pathologies liées au métabolisme. Summary: Aetiology of obesity and type II diabetes is multifactorial, involving both genetic and environmental factors, such as calory-rich diets or lack of exercice. Genetically homogenous C57BL/6J mice fed a high fat diet (HFD) up to nine months develop differential adaptation, becoming either obese and diabetic (ObD) or remaining lean in the presence (LD) or absence (LnD) of diabetes development. Each phenotype is associated with diverse metabolic alterations, which may result from diverse molecular adaptations of key organs involved in the control of energy homeostasis. In this study, we evaluated if specific patterns of gene expression could be associated with each different phenotype of HFD mice in the liver and the skeletal muscles. To perform this, we constructed a metabolic cDNA microarray containing approximately 700 cDNA representing genes involved in the main metabolic pathways of energy homeostasis. Our data indicate that the development of diet-induced obesity and type II diabetes is linked to some defects in lipid metabolism, involving a preserved hepatic lipogenesis and increased levels of very low density lipoproteins (VLDL). In skeletal muscles, an increase in fatty acids uptake, as suggested by the increased expression of lipoprotein lipase, would contribute to the increased level of insulin resistance observed in the ObD mice. Conversely, both groups of lean mice showed a reduced expression in lipogenic genes, particularly stearoyl-CoA desaturase 1 (Scd-1), a gene linked to sensitivity to diet-induced obesity. Secondly, we identified a subset of genes from expression profiles that classified with relative accuracy the different groups of mice. Such classifiers may be used in the future as diagnostic tools of each metabolic state in each tissue. Résumé Développement d'une puce à ADN métabolique et application à l'étude d'un modèle murin d'obésité et de diabète de type II L'étiologie de l'obésité et du diabète de type II est multifactorielle, impliquant à la fois des facteurs génétiques et environnementaux, tels que des régimes riches en calories ou un manque d'exercice physique. Des souris génétiquement homogènes C57BL/6J nourries avec un régime extrêmement gras (HFD) pendant 9 mois développent une adaptation métabolique différentielle, soit en devenant obèses et diabétiques (ObD), soit en restant minces en présence (LD) ou en absence (LnD) d'un diabète. Chaque phénotype est associé à diverses altérations métaboliques, qui pourraient résulter de diverses adaptations moléculaires des organes impliqués dans le contrôle de l'homéostasie énergétique. Dans cette étude, nous avons évalué si des profils d'expression des gènes dans le foie et le muscle squelettique pouvaient être associés à chacun des phénotypes de souris HFD. Dans ce but, nous avons développé une puce à ADN métabolique contenant approximativement 700 ADNc représentant des gènes impliqués dans les différentes voies métaboliques de l'homéostasie énergétique. Nos données indiquent que le développement de l'obésité et du diabète de type II induit par un régime gras est associé à certains défauts du métabolisme lipidique, impliquant une lipogenèse hépatique préservée et des niveaux de lipoprotéines de très faible densité (VLDL) augmentés. Au niveau du muscle squelettique, une augmentation du captage des acides gras, suggéré par l'expression augmentée de la lipoprotéine lipase, contribuerait à expliquer la résistance à l'insuline plus marquée observée chez les souris ObD. Au contraire, les souris minces ont montré une réduction marquée de l'expression des gènes lipogéniques, en particulier de la stéaroyl-CoA désaturase 1 (scd-1), un gène associé à la sensibilité au développement de l'obésité par un régime gras. Dans un deuxième temps, nous avons identifié un sous-ensemble de gènes à partir des profils d'expression, qui permettent de classifier avec une précision relativement élevée les différents groupes de souris. De tels classificateurs pourraient être utilisés dans le futur comme outils pour le diagnostic de l'état métabolique d'un tissu donné.
Resumo:
Abstract: The improvement in antiretroviral drug therapy has transformed HIV infection into a chronic disease. However, treatment failure and drug toxicity are frequent. Inadequate response to treatment is clearly multifactorial and, therefore, dosage individualisation based on demographic factors, genetic markers and measurement of cellular and plasma drug level may enhance both drug efficacy and tolerability. At present, antiretroviral drugs levels are monitored in plasma, whereas only drugs penetrating into cells are able to exert an antiviral activity, suggesting that cellular drug determination may more confidently reflect drug exposure at the site of pharmacological action. The overall objective of this thesis is to provide a better understanding of the Pharmacokinetic and pharmacogenetic factors influencing the plasma and cellular disposition of antiretroviral drugs. To that endeavour, analytical methods for the measurements of plasma and cellular drug levels have been developed and validated using liquid chromatography methods coupled with ultraviolet and tandem mass spectrometry detection, respectively. Correlations between plasma and cellular exposures were assessed during observational and experimental studies. Cytochrome (CYP) 2B6, efflux transporters (ABCB1, ABCC1, ABCC2 and ABCG2) and orosomucoid (ORM) polymorphisms were determined and were related to plasma and cellular exposures, as well as toxicity of antiretroviral drugs. A Pharmacokinetic population model was developed to characterise inter- and intra-patient variability of atazanavir pharmacokinetics, and to identify covariates influencing drug disposition. In that context, a Pharmacokinetic interaction study between atazanavir and lopinavir, both boosted with ritonavir, has beén conducted to assess the safety and pharmacokinetics of this boosted double-protease inhibitors regimen. Well to moderately-correlated cellular and plasma drug levels are .observed or protease inhibitors, whereas for efavirenz and nevirapine these correlations are weak. Cellular exposure, and CYP2B6 genotype (516G>T) are predictors of efavirenz neuropsychological toxicity. Nevirapine plasma exposure is also influenced by CYPZB6 polymorphism. Nelfinavir cellular exposure appears to be significantly associated only with ABCB1 genotype (3435C>T and intron 26 + 80T>C). Indinavir and lopinavir clearance and lopinavir cellular/plasma exposure ratio are influenced by the concentration of the variant S of ORM, suggesting-a specific binding of these drugs to this variant. Nelfinavir and efavirenz are not influenced by ORM concentration and phenotype. The Pharmacokinetic parameters of atazanavir are adequately described by our population model. The atazanavir-lopinavir interaction study indicates no influence on plasma and cellular atazanavir pharmacokinetics, while limited decrease in lopinavir concentrations was observed after atazanavir addition. The residual variability unexplained by the considered variables suggests that other covariates either uncontrolled at present or remaining to be identified, such as genetic and environmental factors influence antiretroviral drug pharmacokinetics, with substantial impact on treatment efficacy and tolerability. In that context, a comprehensive approach taking into account drug pharmacokinetics and patient genetic background is expected to contribute to increase treatment success, and to reduce the occurrence of adverse drug reactions by stratifying patients in an individualised antiretroviral therapy approach. Résumé Facteurs pharmacocinétiques et pharmacogénétiques influençant l'exposition plasmatique et cellulaire des antirétroviraux Les progrès de la thérapie antirétrovirale ont transformé l'infection par le VIH d'une affection mortelle à une maladie chronique. En dépit de ce succès, l'échec thérapeutique et la toxicité médicamenteuse restent fréquents. Une réponse inadéquate au traitement est clairement multifactorielle et une individualisation de la posologie des médicaments qui se baserait sur les facteurs démographiques et génétiques des patients et sur les taux sanguins des médicaments pourrait améliorer à la fois l'efficacité et la tolérance de la thérapie. Par ailleurs, seules les concentrations plasmatiques sont actuellement considérées pour le suivi thérapeutique des médicaments, alors que les taux cellulaires pourraient mieux refléter l'activité de ses médicaments qui agissent au niveau intracellulaire. L'objectif global de cette thèse était de mieux comprendre les facteurs pharmacocinétiques et pharmacocénétiques influençant l'exposition plasmatique et cellulaire des médicaments antirétroviraux. A cet effet, des méthodes pour quantifier les concentrations plasmatiques et cellulaires des antirétroviraux ont été développées et validées en utilisant la chromatographie liquide couplée à la détection ultraviolette et la spectrométrie de masse en tandem, respectivement. La corrélation entre l'exposition cellulaire et plasmatique de ces médicaments a été étudiée lors d'études observationnelles et expérimentales. Les polymorphismes du cytochrome (CYP) 2B6, ainsi que des transporteurs d'efflux (ABCB1, ABCC1, ABCC2 et ABCG2) et de l'orosomucoïde (ORM) ont été déterminés et corrélés avec l'exposition plasmatique et cellulaire des antirétroviraux, ainsi qu'à leur toxicité. Un modèle de pharmacocinétique de population a été établi afin de caractériser la variabilité inter- et intra-individuelle de l'atazanavir, et d'identifier les covariables pouvant influencer le devenir de ce médicament. Dans ce contexte, une étude d'interaction entre l'atazanavir et le lopinavir a été effectuée afin de déterminer la sécurité et le profil pharmacocinétique de ce régime thérapeutique. Des corrélations modérées à bonnes ont été observées entre les taux cellulaires et plasmatiques des inhibiteurs de protéase, alors que pour l'efavirenz et la névirapine ces corrélations sont faibles. L'exposition cellulaire, ainsi que le génotype du CYP2B6 (516G>T) sont des indices de la toxicité neuropsychologique de l'efavirenz. L'exposition plasmatique de la névirapine est également influencée par le polymorphisme du CYPZB6. L'exposition cellulaire du nelfinavir est significativement associée au génotype du ABCB1 (3435C>T et intron 26 + 80T>C). La clairance de l'indinavir et du lopinavir, ainsi que le rapport entre exposition cellulaire et plasmatique du lopinavir sont influencés par la concentration du variant S de l'ORM, suggérant une liaison spécifique de ces médicaments à ce variant. La clairance du nelfinavir et de l'efavirenz n'est pas influencée ni par la concentration ni par le phénotype de l'ORM. Les paramètres pharmacocinétiques de l'atazanavir ont été décrits de façon adéquate par le modèle de population proposé. De plus, le lopinavir n'influence pas les concentrations plasmatiques et cellulaires de l'atazanavir; alors que celui-ci conduit à une baisse limitée des taux de lopinavir. L'importante variabilité pharmacocinétique des antirétroviraux suggère que d'autres facteurs génétiques et environnementaux -qui restent encore à découvrir- influencent également leur disponibilité. Dans un proche futur, une prise en charge qui tienne. compte de la pharmacocinétique des médicaments et des caractéristiques génétiques du patient devrait permettre d'individualiser le traitement, contribuant certainement à une amélioration de la réponse thérapeutique et à une diminution de la toxicité. Résumé grand public Facteurs pharmacocinétiques et pharmacogénétiques influençant l'exposition plasmatique et cellulaire des antirétroviraux Les progrès effectués dans le traitement de l'infection par le virus de l'immunodéficience humaine acquise (VIH), ont permis de transformer une maladie avec un pronostic sombre, en une maladie chronique traitable avec des médicaments de plus en plus efficaces. Malgré ce succès, de nombreux patients ne répondent pas de façon optimale à leur traitement et/ou souffrent d'effets indésirables médicamenteux entraînant fréquemment une modification de leur thérapie. Actuellement, le suivi de la réponse au traitement s'effectue par la mesure chez les patients de la quantité de virus et du nombre des cellules immunitaires dans le sang, ainsi que par la concentration sanguine des médicaments administrés. Cependant, comme le virus se réplique à l'intérieur de la cellule, la mesure des concentrations médicamenteuses au niveau intracellulaire pourrait mieux refléter l'activité pharmacologique au site d'action. De plus, il a été possible de mettre en évidence la grande variabilité des concentrations plasmatiques de médicaments chez des patients prenant pourtant la même dose de médicament. Comme cette variabilité est notamment due à des facteurs génétiques qui sont susceptibles d'influencer la réponse au traitement antirétroviral, des analyses génétiques ont été également effectuées chez ces patients. Cette thèse a eu pour objectif de mieux comprendre les facteurs pharmacologiques et génétiques influençant l'activité et la toxicité des médicaments antirétroviraux afin de réduire la variabilité de la réponse thérapeutique. A cet effet, une méthode de dosage permettant la quantification des médicaments anti-HIV au niveau intracellulaire a été développée. Par ailleurs, nos études ont également porté .sur les variations génétiques influençant la quantité et l'activité des protéines impliquées dans le métabolisme et dans le transport des médicaments antirétroviraux. Enfin, les conséquences de ces variations sur la réponse clinique et la toxicité du traitement ont été évaluées. Nos études ont mis en évidence des associations significatives entre les variations génétiques considérées et la concentration sanguine, cellulaire et la toxicité de quelques médicaments antirétroviraux. La complémentarité des connaissances pharmacologiques, génétiques et virales pourrait aboutir à une stratégie globale permettant d'individualiser le traitement et la dose administrée, en fonction des caractéristiques propres de chaque patient. Cette approche pourrait contribuer à une optimisation du traitement antirétroviral dans la perspective d'une meilleure- efficacité thérapeutique à long terme et d'une diminution des effets indésirables rencontrés.
Resumo:
Les évangiles du Nouveau Testament ne sont pas les premiers textes écrits sur Jésus. Il existe des sources antérieures dont se sont inspirés les évangélistes. Après un travail de dix ans mené par des exégètes nord-américains et allemands, on est désormais en mesure de présenter aujourd'hui l'un de ces textes primitifs, dont la reconstitution ouvre des perspectives fascinantes. Il s'agit d'un recueil de paroles de Jésus dont se sont inspirés les auteurs des évangiles de Luc et de Matthieu. Le texte comprend essentiellement des paroles de Jésus à l'accent très engagé dont on peut supposer qu'elles sont très proches des paroles réelles tenues par le Christ au cours de son ministère terrestre. Ce texte ne comprend pas de récit de crucifixion et de résurrection, ce qui ajoute à la fascination de cette reconstitution. Il est ici intégralement traduit en français et précédé d'une introduction qui présente cet évangile inconnu ?
Resumo:
Rock slope instabilities are implicitly linked to the supply of sediment and debris recharging channels prone to debris flow. Hence, the incorporation of bedrock structure and terrain morphology can be relevant in the analysis of sediment budget and debris flow hazard assessment. Here, the mode of debris production of the Manival catchment (northern French Alps) is documented by the study of its morphostructural aspects extracted from high resolution DEM. Terrain implication in the process of debris supply is evaluated by: a) A systematic classification of the major morphological units based on the slope gradient that enables a spatial analysis of zones of debris production and deposition. b) A detailed structural analysis performed on DEM in order to identify potential unstable slopes. c) An analysis of the gullies orientation that informs in term of structural control of the sources zones. d) Localisation of high density joints sets that document about whether sources of continuous debris production are controlled by the structural setting of the catchment. These DEM-based indicators can be used as proxies for assessing the influences of the current topography and enable to quantify a degree of susceptibility to mass wasting and hillslope erosion activity. This present contribution suggests some directions for characterizing sediment flux dynamic in small alpine catchment.
Resumo:
Résumé Alors que les pratiques religieuses régulières diminuent et que les groupes religieux majoritaires perdent des membres formellement enregistrés, une évènementisation de l'appartenance religieuse peut être observée depuis environ deux décennies. Dans un premier exemple, l'auteure montre que le réseau transnational de la confrérie soufie des Mourides resserre les liens entre adeptes dans un contexte migratoire qui tend à fragiliser les relations sociales. La confrérie y fait face à travers une spectacularisation de la pratique religieuse, occupant l'espace public à Harlem ou, dans une moindre mesure, à Paris. Le second exemple traite du pèlerinage aux Saintes et Saints d'Afrique dans la ville valaisanne de Saint Maurice. Ce dernier fut inventé par l'Église catholique suisse afin d'attirer des migrants africains, mais aussi afin de redynamiser une pratique religieuse ordinaire en perte de vitesse. L'évènement a lieu en même temps que le pèlerinage de Namugongo en Ouganda, réunissant plus d'un demi-million de personnes. Les communautés évènementielles ainsi créées sont-elles durables ou plutôt liquides ? Abstract While regular religious practice is decreasing and the major religious groups are losing formally registered members, a 'spectacularization' of religious belonging can be observed over the last two decades. The author presents two examples to support this argument. In the first, the transnational network of the Murids, a Sufi brotherhood, has tried to reinforce the relations between its members, which become fragile during migration. The brotherhood occupies a public space in Harlem, and, to a lesser extent, in Paris, in a spectacularization of religious belonging, in order to remain attractive to migrants. The second example deals with the pilgrimage dedicated to African Saints in the Swiss town of Saint Maurice. This event was invented by the missionary service of the Swiss Catholic Church in order to attract African migrants, but also in order to make ordinary religious practice more appealing. The event takes place at the same time as the Ugandan pilgrimage of Namugongo, which assembles more than half a million people. However, are these 'event communities' sustainable or ephemeral?