999 resultados para mesure
Resumo:
Introduction: Une élévation de l'activité des facteurs de transcription CREBs dans le tissu adipeux est en partie responsable de l'insulino-résistance systémique dans l'obésité. Le facteur «Inducible cAMP early repressor» (ICER) est un répresseur transcriptionnel passif dont le niveau d'expression antagonise l'activité des CREBs. L'objectif de ce travail adipocytaire des CREBs dans l'obésité chez l'Homme et la souris. Matériels et méthodes: Du tissu adipeux blanc (TAB) a été prélevé chez des souris obèses nourries sous une diète normale et des souris obèses nourries sous un régime riche en graisses pendant 12 semaines. Des biopsies de tissu adipeux viscéral (TAV) ont été prélevées chez les sujets humains minces (BMI = 24 ± 0,5 kg/m2) et obèses (BMI > 35 kg/m2). L'expression des gènes est quantifiée par RT-PCR quantitative. L'activité des CREBs et d'ICER est mesurée par des expériences de retard sur gel. L'activité des histones déacétylases est quantifiée par dosage colorimétrique. Résultats: L'expression et l'activité d'ICER sont diminuées dans le TAB des souris obèses, hyper-glycémiques et insulino-résistantes. De même, l'activité d'ICER est réduite dans le TAV des sujets humains obèses. Cette réduction corrèle avec une augmentation de l'activité des CREBs, une réduction de l'expression de Glut4 et de l'adiponectine, à la fois chez l'Homme et la souris. La diminution de l'expression d'ICER n'est observée que dans la fraction adipocytaire du tissu adipeux. L'expression d'ICER est contrôlée par l'activité des HDACs. L'inhibition des HDACs inhibe l'expression d'ICER dans les adipocytes. L'activité totale des HDACs est réduite dans les tissus adipeux chez les souris et chez les sujets humains obèses. Conclusion: La diminution de l'activité d'ICER dans les adipocytes par une modification de l'activité des HDACs serait responsable de l'augmentation de l'activité des CREBs dans l'obésité.
Resumo:
Introduction. - Le traitement de la polymyosite et de l'atteinte pulmonaireassociées au syndrome des anti-synthétases peut serévéler difficile. Le tacrolimus est proposé en cas d'échec aux autresimmunosuppresseurs. Néanmoins, contrairement aux patientsgreffés, son utilisation dans cette indication est mal codifiée. Nousrapportons les cas de 2 patients traités efficacement par tacrolimus.Cas Clinique. - Cas 1. Il s'agit d'un homme de 44 ans originaire deMadagascar, chez qui le diagnostic de syndrome des anti-synthétasesest posé devant l'association mains de mécanicien, polymyosite,manifestation de raynaud et présence d'anticorps anti Jo1fortement positifs à 281U (norme < 50U). Les différents traitementsproposés (prednisone 1 mg/kg, méthotrexate, azathioprine,rituximab et Immunoglobulines IV) ne permettent pas de contrôlerla situation avec un pic des CK à 24 000 U/l au décours des Ig IV.Une IRM réalisée alors retrouve une activité inflammatoire intensedes compartiments antérieurs et postérieurs des cuisses des 2 côtés.Finalement un traitement de tacrolimus est proposé en augmentationprogressive. L'efficacité du traitement est mesurée par l'évolutiondes CK qui passent en quelques mois de 24 000 U/l à 300 U/lsous une dose de 6 mg/j de tacrolimus et d'une amélioration parIRM spectaculaire. Malheureusement, suite à un épisode de déshydratation,le patient développe une insuffisance rénale aigüemodérée (créatinine à 124 _mol/l contre 89 auparavant) non réversibleaprès réhydratation. Pour stabiliser la fonction rénale le tacrolimusest baissé à 4 mg/jour au prix d'une réapparition des douleursmusculaires et d'une ré-ascension des CK à 1 000 U/l. Cas 2. Il s'agitd'une patiente de 61 ans chez qui le diagnostic de syndrome desanti-synthétases est posé devant l'association atteinte articulaire,mains de mécanicien, atteinte musculaire, pneumopathie interstitiellediffuse et forte positivité des Ac anti JO1 à 252 U. Une associationtacrolimus et prednisone est rapidement proposée en raison del'atteinte pulmonaire. Malheureusement la patiente développe uneinsuffisance rénale progressive sous 9 mg/j de tacrolimus et malgréune réponse favorable sur le plan pulmonaire, le traitement estinterrompu avec amélioration de la fonction rénale.Discussion. - Le tacrolimus est un traitement immunosuppresseuranalogue à la ciclosporine, avec une action 100 fois supérieure. Ilinhibe l'activation et la prolifération des cellules T et sa principaletoxicité est rénale. Traitement puissant, il a montré son efficacitédans les atteintes pulmonaires sévères liées à un syndrome desanti-synthétases1.2. Les pneumologues le connaissent bien et chezles patients greffés, la surveillance de l'efficacité et de la toxicité dutraitement se fait grâce à des mesures du taux résiduel. Néanmoinsdans le cadre du syndrome des anti-synthétases les mesures de surveillancesont moins bien codifiées. Même si l'efficacité du tacrolimussemble excellente dans les formes musculaires etpulmonaires sévères, nos 2 cas nous rendent attentifs sur l'importanced'une surveillance rapprochée de la fonction rénale.Conclusion. - Le tacrolimus est un puissant immunosuppresseur quipeut être proposé aux patients souffrant de manifestations sévèresd'un syndrome des anti-synthétases. Une dose standard n'existe paset il faut être attentif à sa toxicité rénale.
Resumo:
Résumé de l'étude La surveillance de la prescription des antibiotiques en milieu hospitalier est une des mesures recommandées pour prévenir l'émergence de bactéries résistantes. La consommation d'antibiotiques est généralement exprimée en termes de DDD (defined daily dose) rapporté au taux d'occupation (jours patients). Cette mesure ne tient cependant pas compte de la variation de la casuistique d'un service au cours du temps. La consommation d'antibiotiques est influencée par l'incidence des infections, qui peut être saisonnière ou varier selon les circonstances épidémiologiques, ainsi que par les habitudes des médecins en termes de prescription. Une échelle de mesure adaptée à ces paramètres est donc capitale pour rendre compte de la consommation d'antibiotiques au sein d'un service et identifier de possibles dérivations dans les habitudes de prescriptions. Nous avons émis l'hypothèse que le nombre de demandes d'hémocultures pouvait servir d'indicateur de la charge infectieuse d'un service. Une analyse préliminaire a permis d'établir une bonne relation entre ce paramètre et l'incidence d'événements infectieux en comparaison à d'autres paramètres testés (nombre de prélèvements microbiologiques provenant de sites stériles ou nombre total de prélèvements microbiologiques). Sur la base de cette hypothèse, nous avons analysé la consommation d'antibiotiques d'une unité de médecine générale (Service de Médecine Interne du CHUV) sur seize trimestres consécutifs en comparant deux échelles de mesures : la méthode standard en DDD par jours patients et une échelle ajustée à la charge infectieuse (DDD par nombre de demandes d'hémocultures). L'échelle ajustée aux hémocultures a permis d'identifier trois trimestres avec une consommation anormalement élevée qui n'avaient pas été classés comme tels par l'échelle standard (consommation dans les normes en DDD par jours patients). Une analyse détaillée d'un de ces trimestres a confirmé une incidence d'infections moins élevée en comparaison à un trimestre de référence (proche de la norme selon les deux échelles), alors que la corrélation entre infections et demandes d'hémocultures était similaire pour les deux périodes. De même, l'échelle ajustée ä la charge infectieuse a démontré une consommation dans la norme pour un trimestre avec une consommation en apparence trop élevée selon l'échelle standard en raison d'une incidence d'infections plus élevée pour cette période. Cette étude a donc permis une identification plus performante et plus précise de périodes avec des dérivations dans la pratique de la prescription des antibiotiques en utilisant une échelle de mesure ajustée à la charge infectieuse d'un service au cours du temps. Nous avons démontré que le nombre d'hémocultures prélevées était un indicateur stable de la charge infectieuse dans un service de médecine générale. Ceci ne permet cependant pas de généraliser l'usage de cet indicateur pour tous les types de service. La pratique des hémocultures peut, en effet, varier d'une unité à l'autre, ou entres différentes institutions. ll convient donc de tester la validité de ce paramètre dans un service avant de l'appliquer.
Resumo:
[Table des matières] 1. Patients et méthodes. 1.1. Enquête dans la population générale : population, modalités d'envoi, taux de réponse. 1.2. Questionnaire SF-36 et questionnaire Medical Outcome Study (MOS) : PF physical functioning = activité physique (fonctionnement) ; RP role physical = limitations (du rôle) liées à la santé physique ; BP bodily pain = douleur physique ; GH General Health = santé générale ; VT vitality = vitalité (énergie/fatigue) ; SF social functioning = fonctionnement ou bien-être social ; RE role éemotional = limitations (du rôle) liées à la santé mentale ; MH mental health = santé mentale ; CF cognitive functioning = fonctionnement cognitif (dimension absente du SF-36 classique) ; HT eported health transition = modification perçue de l'état de santé ("dimension" annexe, = item 2 ou Q2). 1.3. Analyse : calcul des scores du SF-36 et du SF-36 + CF, cohérence des réponses, fiabilité de l'instrument, validité. 1.4. Analyse statistique. 2. Résultats commentés de l'enquête dans la population générale. 2.1. Fréquence des non-réponses par item et par question. 2.2. Cohérence des réponses. 2.3. Scores d'état de santé par dimension : description et comparaison avec une population américaine, comparaison des scores vaudois et genevois. 2.4. Existe-t-il une concentration des bons et des mauvais scores chez les mêmes répondants ? 2.5. Fiabilité. 2.6. Validité : validité convergente et discriminante, analyse factorielle, validation en fonction de variables externes. 3. Discussion. 3.1. Evaluation du questionnaire. 3.2. Mesure de la qualité de vie liée à l'état de santé perçu dans la population générale. 3.3. Adjonction de la dimension "fonctionnement cognitif". 3.4. Conclusions et recommandations.
Resumo:
Ce travail de recherche a été réalisé dans le laboratoire de pharmacologie clinique, au Centre Hospitalier Universitaire Sainte-Justine, à Montréal. C'est une étude rétrospective basée sur le suivi thérapeutique du Tacrolimus prescrit chez les enfants après transplantation hépatique. Ce suivi est nécessaire car le Tacrolimus possède une importante variabilité pharmacocinétique inter et intra-individuelle ainsi qu'un index thérapeutique très étroit. Actuellement, l'individualisation des doses prescrites est basée sur la mesure de la concentration de base - du médicament dans le sang (C0), mais des études récentes montrent que cette mesure ne reflète pas précisément l'exposition du Tacrolimus dans l'organisme chez les enfants. Le meilleur reflet de cette exposition est la mesure de l'aire sous la courbe (AUC). Cependant, cette dernière implique la mesure de multiples concentrations tout au long de l'intervalle entre 2 doses de médicament (Tacrolimus: 12 heures) ce qui est long, cher et impraticable en ambulatoire. De nouvelles méthodes utilisant un nombre limité de prélèvements ont donc été développées pour prédire au mieux cette AUC. Ce sont les "Limited sampling strategies" ou LSS. La plupart de ces LSS pour le Tacrolimus ont été développées et validées chez des patients transplantés adultes et leur application directe chez les transplantés pédiatriques n'est pas possible en raison de différences importantes au niveau des paramètres pharmacocinétiques du médicament entre ces deux populations. Aussi, le but de ce travail était de développer et valider, pour la première fois, des LSS chez les enfants transplantés hépatiques. Pour cela, une analyse de 36 profils pharmacocinétiques de 28 patients transplantés hépatiques âgés de 0.4- 18.5 ans a été effectuée. Tous les profils ont été réalisés au Centre Hospitalier Universitaire Sainte-Justine entre janvier 2007 et janvier 2009. Les LSS comportant au maximum 4 mesures de concentration ont été développées en utilisant une analyse de régression multiple. Parmi tous les modèles obtenus, cinq ont été sélectionnés sur la base de critères précis puis validés selon la méthode décrite par Sheiner et Beal.¦Les résultats montrent que ces cinq modèles peuvent prédire l'AUC du Tacrolimus avec une précision cliniquement acceptable de ± 15% alors que la C0 présente la plus faible corrélation avec l'AUC.¦En conclusion, cette étude confirme que la C0 ne permet pas de prédire de manière efficace l'exposition du Tacrolimus dans l'organisme dans notre population de patients pédiatriques contrairement aux LSS analysées qui offrent une méthode pratique et fiable. Par ailleurs, en permettant d'obtenir une estimation précise et simplifiée de l'AUC complète du Tacrolimus chez les patients, ces LSS ouvrent la porte à de futures études prospectives visant à mieux définir l'AUC cible du médicament et à déterminer si le suivi basé sur la mesure de l'AUC est plus efficace et plus sûr que celui basé sur la mesure de la C0.
Resumo:
Ce travail de recherche évalue dans quelle mesure le pharmacien, en collaboration avec les autres professionnels de soins, peut soutenir le patient VIH-positif dans sa prise médicamenteuse en associant de façon originale l'entretien motivationnel et les piluliers électroniques. Les résultats montrent que l'adhésion thérapeutique peut être maintenue à un niveau élevé même dans un groupe de patients à risque de non-adhésion. [Auteurs]
Resumo:
Mise au point sur le hotter implantable (Reveal®). Connaissances actuelles et implications thérapeutiques. La syncope est un problème fréquent touchant environ un tiers des adultes durant leur vie. C'est un motif de consultation habituel aux urgences et ses causes sont souvent multiples et rendent son diagnostic difficile. Malgré des investigations extensives et coûteuses la cause syncopale reste dans environ 30% des cas d'étiologie indéterminée. Les progrès récents dans le monitoring cardiaque à long terme ont permis d'inclure dans le choix des tests diagnostiques un outil très intéressant dans l'investigation de la syncope d'étiologie indéterminée (SOI). Il s'agit du moniteur ECG implantable (MEI) ou Reveal®. Il y a un peu plus de 10 ans un prototype de MEI a été implanté dans un petit collectif de patients souffrants de SOI récidivantes et a permis d'établir un diagnostic chez la plupart d'entre eux. Dès lors le système s'est modernisé avec une diminution importante de la taille et du poids permettant actuellement d'enregistrer le rythme cardiaque sur une durée de 18 à 24 mois. Le système peut stocker dans sa mémoire un tracé ECG soit à l'aide d'un activateur externe déclenché par le patient, soit de façon spontanée en présence d'un rythme cardiaque lent ou rapide. Son implantation se fait en anesthésie locale, en position sous-cutanée pectorale gauche. Les complications et les problèmes infectieux sont rares. Plusieurs études récentes se sont intéressées à l'apport diagnostique du MEI dans la prise en charge de la SOI. La plus grande porte sur un collectif de 206 patients. L'apport diagnostique des différentes études varie de 40% à 64%. Cependant la plupart de ces études ne comportaient pas de prise en charge standardisée ou avaient des critères d'inclusion précis. Nous nous sommes intéressés aux résultats de notre prise en charge de la syncope au cours de ces 6 dernières années. Une consultation spécialisée de la syncope a été mise en place en 1999. La consultation offre l'accès à tout le plateau technique propre à l'investigation de syncopes à savoir un tilt-test avec mesure continue non invasive de la pression artérielle, examens échocardiographiques et test d'effort. Si nécessaire, le bilan peut être complété par une étude électrophysiologique (EEP) et/ou une coronarographie: Tous les patients bénéficient d'une anamnèse ciblée suivi d'un examen clinique et d'un électrocardiogramme. Une échocardiographie n'est effectuée qu'en cas de suspicion de cardiopathie sous-jacente. Un holter ou R-test ne sont réalisés qu'en présence de syncopes ou palpitations fréquentes. Les investigations se poursuivent par un tilt test suivi d'un massage du sinus carotidien en position debout et couchée. Un test d'hyperventilation n'est pratiqué que chez les patients avec traits phobiques, dépressifs ou troubles de type panique. L'EEP n'est pratiquée que chez les patients dont la syncope reste d'étiologie indéterminée après investigations initiales et chez ceux souffrant d'une cardiopathie sous jacente documentée ; elle est aussi indiquée chez ceux dont le coeur est normal mais chez qui la syncope est associée à des traumatismes ou à l'origine d'un accident de voiture. Le MEI est proposé lorsque toutes les investigations initiales restent négatives, généralement chez les sujets ayant souffert de plus d'une syncope ou de complications sérieuses. Notre expérience pratique d'une consultation de la syncope ouverte au tout venant nous montre qu'une prise en charge standardisée non invasive permet d'identifier une cause syncopale chez plus de 60% des patients. Chez les patients souffrant de syncopes récidivantes ou traumatiques d'étiologie indéterminée après investigations conventionnelles, l'apport diagnostique du MEI est élevé (64%) durant un suivi moyen de 9 mois, ce qui permet d'identifier certaines causes syncopales écartées précédemment par des tests ciblés. Parmi ces dernières, retenons plus particulièrement les tachycardies nodales et crises d'épilepsie.
Resumo:
RESUME Cette thèse se situe à la frontière de la recherche en économie du développement et du commerce international et vise à intégrer les apports de l'économie géographique. Le premier chapitre s'intéresse aux effets de création et de détournement de commerce au sein des accords régionaux entre pays en développement et combine une approche gravitaire et une estimation non paramétrique des effets de commerce. Cette analyse confirme un effet de commerce non monotone pour six accords régionaux couvrant l'Afrique, l'Amérique Latine et l'Asie (AFTA, CAN, CACM, CEDEAO, MERCO SUR et SADC) sur la période 1960-1996. Les accords signés dans les années 90 (AFTA, CAN, MERCOSUR et SADC) semblent avoir induis une amélioration du bien-être de leurs membres mais avec un impact variable sur le reste du monde, tandis que les accords plus anciens (CEDEAO et CACM) semblent montrer que les effets de commerce et de bien-être se réduisent pour finir par s'annuler à mesure que le nombre d'années de participation des Etats membres augmente. Le deuxième chapitre pose la question de l'impact de la géographie sur les échanges Sud-Sud. Ce chapitre innove par rapport aux méthodes classiques d'estimation en dérivant une équation de commerce à partir de l'hypothèse d'Armington et en intégrant une fonction de coût de transport qui prend en compte la spécificité des pays de l'UEMOA. Les estimations donnent des effets convaincants quant au rôle de l'enclavement et des infrastructures: deux pays enclavés de l'UEMOA commercent 92% moins que deux autres pays quelconques, tandis que traverser un pays de transit au sein de l'espace UEMOA augmente de 6% les coûts de transport, et que bitumer toutes les routes inter-Etat de l'Union induirait trois fois plus de commerce intra-UEMOA. Le chapitre 3 s'intéresse à la persistance des différences de développement au sein des accords régionaux entre pays en développement. Il montre que la géographie différenciée des pays du Sud membres d'un accord induit un impact asymétrique de celui-ci sur ses membres. Il s'agit d'un modèle stylisé de trois pays dont deux ayant conclu un accord régional. Les résultats obtenus par simulation montrent qu'une meilleure dotation en infrastructure d'un membre de l'accord régional lui permet d'attirer une plus grande part industrielle à mesure que les coûts de transport au sein de l'accord régional sont baissés, ce qui conduit à un développement inégal entre les membres. Si les niveaux d'infrastructure domestique de transport sont harmonisés au sein des pays membres de l'accord d'intégration, leurs parts industrielles peuvent converger au détriment des pays restés hors de l'union. Le chapitre 4 s'intéresse à des questions d'économie urbaine en étudiant comment l'interaction entre rendements croissants et coûts de transport détermine la localisation des activités et des travailleurs au sein d'un pays ou d'une région. Le modèle développé reproduit un fait stylisé observé à l'intérieur des centres métropolitains des USA: sur une période longue (1850-1990), on observe une spécialisation croissante des centres urbains et de leurs périphéries associée à une évolution croissante puis décroissante de la population des centres urbains par rapport à leurs périphéries. Ce résultat peut se transférer dans un contexte en développement avec une zone centrale et une zone périphérique: à mesure que l'accessibilité des régions s'améliore, ces régions se spécialiseront et la région principale, d'abord plus importante (en termes de nombre de travailleurs) va finir par se réduire à une taille identique à celle de la région périphérique.
Resumo:
The interaction of tunneling with groundwater is a problem both from an environmental and an engineering point of view. In fact, tunnel drilling may cause a drawdown of piezometric levels and water inflows into tunnels that may cause problems during excavation of the tunnel. While the influence of tunneling on the regional groundwater systems may be adequately predicted in porous media using analytical solutions, such an approach is difficult to apply in fractured rocks. Numerical solutions are preferable and various conceptual approaches have been proposed to describe and model groundwater flow through fractured rock masses, ranging from equivalent continuum models to discrete fracture network simulation models. However, their application needs many preliminary investigations on the behavior of the groundwater system based on hydrochemical and structural data. To study large scale flow systems in fractured rocks of mountainous terrains, a comprehensive study was conducted in southern Switzerland, using as case studies two infrastructures actually under construction: (i) the Monte Ceneri base railway tunnel (Ticino), and the (ii) San Fedele highway tunnel (Roveredo, Graubiinden). The chosen approach in this study combines the temporal and spatial variation of geochemical and geophysical measurements. About 60 localities from both surface and underlying tunnels were temporarily and spatially monitored during more than one year. At first, the project was focused on the collection of hydrochemical and structural data. A number of springs, selected in the area surrounding the infrastructures, were monitored for discharge, electric conductivity, pH, and temperature. Water samples (springs, tunnel inflows and rains) were taken for isotopic analysis; in particular the stable isotope composition (δ2Η, δ180 values) can reflect the origin of the water, because of spatial (recharge altitude, topography, etc.) and temporal (seasonal) effects on precipitation which in turn strongly influence the isotopic composition of groundwater. Tunnel inflows in the accessible parts of the tunnels were also sampled and, if possible, monitored with time. Noble-gas concentrations and their isotope ratios were used in selected locations to better understand the origin and the circulation of the groundwater. In addition, electrical resistivity and VLF-type electromagnetic surveys were performed to identify water bearing fractures and/or weathered areas that could be intersected at depth during tunnel construction. The main goal of this work was to demonstrate that these hydrogeological data and geophysical methods, combined with structural and hydrogeological information, can be successfully used in order to develop hydrogeological conceptual models of the groundwater flow in regions to be exploited for tunnels. The main results of the project are: (i) to have successfully tested the application of electrical resistivity and VLF-electromagnetic surveys to asses water-bearing zones during tunnel drilling; (ii) to have verified the usefulness of noble gas, major ion and stable isotope compositions as proxies for the detection of faults and to understand the origin of the groundwater and its flow regimes (direct rain water infiltration or groundwater of long residence time); and (iii) to have convincingly tested the combined application of a geochemical and geophysical approach to assess and predict the vulnerability of springs to tunnel drilling. - L'interférence entre eaux souterraines et des tunnels pose des problèmes environnementaux et de génie civile. En fait, la construction d'un tunnel peut faire abaisser le niveau des nappes piézométriques et faire infiltrer de l'eau dans le tunnel et ainsi créer des problème pendant l'excavation. Alors que l'influence de la construction d'un tunnel sur la circulation régionale de l'eau souterraine dans des milieux poreux peut être prédite relativement facilement par des solution analytiques de modèles, ceci devient difficile dans des milieux fissurés. Dans ce cas-là, des solutions numériques sont préférables et plusieurs approches conceptuelles ont été proposées pour décrire et modéliser la circulation d'eau souterraine à travers les roches fissurées, en allant de modèles d'équivalence continue à des modèles de simulation de réseaux de fissures discrètes. Par contre, leur application demande des investigations importantes concernant le comportement du système d'eau souterraine basées sur des données hydrochimiques et structurales. Dans le but d'étudier des grands systèmes de circulation d'eau souterraine dans une région de montagnes, une étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction: (i) Le tunnel ferroviaire de base du Monte Ceneri (Tessin) et (ii) le tunnel routière de San Fedele (Roveredo, Grisons). L'approche choisie dans cette étude est la combinaison de variations temporelles et spatiales des mesures géochimiques et géophysiques. Environs 60 localités situées à la surface ainsi que dans les tunnels soujacents ont été suiviès du point de vue temporel et spatial pendant plus de un an. Dans un premier temps le projet se focalisait sur la collecte de données hydrochimiques et structurales. Un certain nombre de sources, sélectionnées dans les environs des infrastructures étudiées ont été suivies pour le débit, la conductivité électrique, le pH et la température. De l'eau (sources, infiltration d'eau de tunnel et pluie) a été échantillonnés pour des analyses isotopiques; ce sont surtout les isotopes stables (δ2Η, δ180) qui peuvent indiquer l'origine d'une eaux, à cause de la dépendance d'effets spatiaux (altitude de recharge, topographie etc.) ainsi que temporels (saisonaux) sur les précipitations météoriques , qui de suite influencent ainsi la composition isotopique de l'eau souterraine. Les infiltrations d'eau dans les tunnels dans les parties accessibles ont également été échantillonnées et si possible suivies au cours du temps. La concentration de gaz nobles et leurs rapports isotopiques ont également été utilisées pour quelques localités pour mieux comprendre l'origine et la circulation de l'eau souterraine. En plus, des campagnes de mesures de la résistivité électrique et électromagnétique de type VLF ont été menées afin d'identifier des zone de fractures ou d'altération qui pourraient interférer avec les tunnels en profondeur pendant la construction. Le but principal de cette étude était de démontrer que ces données hydrogéologiques et géophysiques peuvent être utilisées avec succès pour développer des modèles hydrogéologiques conceptionels de tunnels. Les résultats principaux de ce travail sont : i) d'avoir testé avec succès l'application de méthodes de la tomographie électrique et des campagnes de mesures électromagnétiques de type VLF afin de trouver des zones riches en eau pendant l'excavation d'un tunnel ; ii) d'avoir prouvé l'utilité des gaz nobles, des analyses ioniques et d'isotopes stables pour déterminer l'origine de l'eau infiltrée (de la pluie par le haut ou ascendant de l'eau remontant des profondeurs) et leur flux et pour déterminer la position de failles ; et iii) d'avoir testé d'une manière convainquant l'application combinée de méthodes géochimiques et géophysiques pour juger et prédire la vulnérabilité de sources lors de la construction de tunnels. - L'interazione dei tunnel con il circuito idrico sotterraneo costituisce un problema sia dal punto di vista ambientale che ingegneristico. Lo scavo di un tunnel puô infatti causare abbassamenti dei livelli piezometrici, inoltre le venute d'acqua in galleria sono un notevole problema sia in fase costruttiva che di esercizio. Nel caso di acquiferi in materiale sciolto, l'influenza dello scavo di un tunnel sul circuito idrico sotterraneo, in genere, puô essere adeguatamente predetta attraverso l'applicazione di soluzioni analitiche; al contrario un approccio di questo tipo appare inadeguato nel caso di scavo in roccia. Per gli ammassi rocciosi fratturati sono piuttosto preferibili soluzioni numeriche e, a tal proposito, sono stati proposti diversi approcci concettuali; nella fattispecie l'ammasso roccioso puô essere modellato come un mezzo discreto ο continuo équivalente. Tuttavia, una corretta applicazione di qualsiasi modello numerico richiede necessariamente indagini preliminari sul comportamento del sistema idrico sotterraneo basate su dati idrogeochimici e geologico strutturali. Per approfondire il tema dell'idrogeologia in ammassi rocciosi fratturati tipici di ambienti montani, è stato condotto uno studio multidisciplinare nel sud della Svizzera sfruttando come casi studio due infrastrutture attualmente in costruzione: (i) il tunnel di base del Monte Ceneri (canton Ticino) e (ii) il tunnel autostradale di San Fedele (Roveredo, canton Grigioni). L'approccio di studio scelto ha cercato di integrare misure idrogeochimiche sulla qualité e quantité delle acque e indagini geofisiche. Nella fattispecie sono state campionate le acque in circa 60 punti spazialmente distribuiti sia in superficie che in sotterraneo; laddove possibile il monitoraggio si è temporalmente prolungato per più di un anno. In una prima fase, il progetto di ricerca si è concentrato sull'acquisizione dati. Diverse sorgenti, selezionate nelle aree di possibile influenza attorno allé infrastrutture esaminate, sono state monitorate per quel che concerne i parametri fisico-chimici: portata, conduttività elettrica, pH e temperatura. Campioni d'acqua sono stati prelevati mensilmente su sorgenti, venute d'acqua e precipitazioni, per analisi isotopiche; nella fattispecie, la composizione in isotopi stabili (δ2Η, δ180) tende a riflettere l'origine delle acque, in quanto, variazioni sia spaziali (altitudine di ricarica, topografia, etc.) che temporali (variazioni stagionali) della composizione isotopica delle precipitazioni influenzano anche le acque sotterranee. Laddove possibile, sono state campionate le venute d'acqua in galleria sia puntualmente che al variare del tempo. Le concentrazioni dei gas nobili disciolti nell'acqua e i loro rapporti isotopici sono stati altresi utilizzati in alcuni casi specifici per meglio spiegare l'origine delle acque e le tipologie di circuiti idrici sotterranei. Inoltre, diverse indagini geofisiche di resistività elettrica ed elettromagnetiche a bassissima frequenza (VLF) sono state condotte al fine di individuare le acque sotterranee circolanti attraverso fratture dell'ammasso roccioso. Principale obiettivo di questo lavoro è stato dimostrare come misure idrogeochimiche ed indagini geofisiche possano essere integrate alio scopo di sviluppare opportuni modelli idrogeologici concettuali utili per lo scavo di opere sotterranee. I principali risultati ottenuti al termine di questa ricerca sono stati: (i) aver testato con successo indagini geofisiche (ERT e VLF-EM) per l'individuazione di acque sotterranee circolanti attraverso fratture dell'ammasso roccioso e che possano essere causa di venute d'acqua in galleria durante lo scavo di tunnel; (ii) aver provato l'utilità di analisi su gas nobili, ioni maggiori e isotopi stabili per l'individuazione di faglie e per comprendere l'origine delle acque sotterranee (acque di recente infiltrazione ο provenienti da circolazioni profonde); (iii) aver testato in maniera convincente l'integrazione delle indagini geofisiche e di misure geochimiche per la valutazione della vulnérabilité delle sorgenti durante lo scavo di nuovi tunnel. - "La NLFA (Nouvelle Ligne Ferroviaire à travers les Alpes) axe du Saint-Gothard est le plus important projet de construction de Suisse. En bâtissant la nouvelle ligne du Saint-Gothard, la Suisse réalise un des plus grands projets de protection de l'environnement d'Europe". Cette phrase, qu'on lit comme présentation du projet Alptransit est particulièrement éloquente pour expliquer l'utilité des nouvelles lignes ferroviaires transeuropéens pour le développement durable. Toutefois, comme toutes grandes infrastructures, la construction de nouveaux tunnels ont des impacts inévitables sur l'environnement. En particulier, le possible drainage des eaux souterraines réalisées par le tunnel peut provoquer un abaissement du niveau des nappes piézométriques. De plus, l'écoulement de l'eau à l'intérieur du tunnel, conduit souvent à des problèmes d'ingénierie. Par exemple, d'importantes infiltrations d'eau dans le tunnel peuvent compliquer les phases d'excavation, provoquant un retard dans l'avancement et dans le pire des cas, peuvent mettre en danger la sécurité des travailleurs. Enfin, l'infiltration d'eau peut être un gros problème pendant le fonctionnement du tunnel. Du point de vue de la science, avoir accès à des infrastructures souterraines représente une occasion unique d'obtenir des informations géologiques en profondeur et pour échantillonner des eaux autrement inaccessibles. Dans ce travail, nous avons utilisé une approche pluridisciplinaire qui intègre des mesures d'étude hydrogéochimiques effectués sur les eaux de surface et des investigations géophysiques indirects, tels que la tomographic de résistivité électrique (TRE) et les mesures électromagnétiques de type VLF. L'étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction, qui sont le tunnel ferroviaire de base du Monte Ceneri, une partie du susmentionné projet Alptransit, situé entièrement dans le canton Tessin, et le tunnel routière de San Fedele, situé a Roveredo dans le canton des Grisons. Le principal objectif était de montrer comment il était possible d'intégrer les deux approches, géophysiques et géochimiques, afin de répondre à la question de ce que pourraient être les effets possibles dû au drainage causés par les travaux souterrains. L'accès aux galeries ci-dessus a permis une validation adéquate des enquêtes menées confirmant, dans chaque cas, les hypothèses proposées. A cette fin, nous avons fait environ 50 profils géophysiques (28 imageries électrique bidimensionnels et 23 électromagnétiques) dans les zones de possible influence par le tunnel, dans le but d'identifier les fractures et les discontinuités dans lesquelles l'eau souterraine peut circuler. De plus, des eaux ont été échantillonnés dans 60 localités situées la surface ainsi que dans les tunnels subjacents, le suivi mensuelle a duré plus d'un an. Nous avons mesurés tous les principaux paramètres physiques et chimiques: débit, conductivité électrique, pH et température. De plus, des échantillons d'eaux ont été prélevés pour l'analyse mensuelle des isotopes stables de l'hydrogène et de l'oxygène (δ2Η, δ180). Avec ces analyses, ainsi que par la mesure des concentrations des gaz rares dissous dans les eaux et de leurs rapports isotopiques que nous avons effectués dans certains cas spécifiques, il était possible d'expliquer l'origine des différents eaux souterraines, les divers modes de recharge des nappes souterraines, la présence de possible phénomènes de mélange et, en général, de mieux expliquer les circulations d'eaux dans le sous-sol. Le travail, même en constituant qu'une réponse partielle à une question très complexe, a permis d'atteindre certains importants objectifs. D'abord, nous avons testé avec succès l'applicabilité des méthodes géophysiques indirectes (TRE et électromagnétiques de type VLF) pour prédire la présence d'eaux souterraines dans le sous-sol des massifs rocheux. De plus, nous avons démontré l'utilité de l'analyse des gaz rares, des isotopes stables et de l'analyses des ions majeurs pour la détection de failles et pour comprendre l'origine des eaux souterraines (eau de pluie par le haut ou eau remontant des profondeurs). En conclusion, avec cette recherche, on a montré que l'intégration des ces informations (géophysiques et géochimiques) permet le développement de modèles conceptuels appropriés, qui permettant d'expliquer comment l'eau souterraine circule. Ces modèles permettent de prévoir les infiltrations d'eau dans les tunnels et de prédire la vulnérabilité de sources et des autres ressources en eau lors de construction de tunnels.
Resumo:
RESUME LARGE PUBLIC Le système nerveux central est principalement composé de deux types de cellules :les neurones et les cellules gliales. Ces dernières, bien que l'emportant en nombre sur les neurones, ont longtemps été considérées comme des cellules sans intérêts par les neuroscientifiques. Hors, les connaissances modernes à leurs sujets indiquent qu'elles participent à la plupart des tâches physiologiques du cerveau. Plus particulièrement, elles prennent part aux processus énergétiques cérébraux. Ceux-ci, en plus d'être vitaux, sont particulièrement intrigants puisque le cerveau représente seulement 2 % de la masse corporelle mais consomme environ 25 % du glucose (substrat énergétique) corporel. Les astrocytes, un type de cellules gliales, jouent un rôle primordial dans cette formidable utilisation de glucose par le cerveau. En effet, l'activité neuronale (transmission de l'influx nerveux) est accompagnée d'une augmentation de la capture de glucose, issu de la circulation sanguine, par les astrocytes. Ce phénomène est appelé le «couplage neurométabolique » entre neurones et astrocytes. L'ion sodium fait partie des mécanismes cellulaires entrant en fonction lors de ces processus. Ainsi, dans le cadre de cette thèse, les aspects dynamiques de la régulation du sodium astrocytaire et leurs implications dans le couplage neurométabolique ont été étudiés par des techniques d'imagerie cellulaires. Ces études ont démontré que les mitochondries, machineries cellulaires convertissant l'énergie contenue dans le glucose, participent à la régulation du sodium astrocytaire. De plus, ce travail de thèse a permis de découvrir que les astrocytes sont capables de se transmettre, sous forme de vagues de sodium se propageant de cellules en cellules, un message donnant l'ordre d'accroître leur consommation d'énergie. Cette voie de signalisation leur permettrait de fournir de l'énergie aux neurones suite à leur activation. RESUME Le glutamate libéré dans la fente synaptique pendant l'activité neuronale, est éliminé par les astrocytes environnants. Le glutamate est co-transporté avec des ions sodiques, induisant une augmentation intracellulaire de sodium (Na+i) dans les astrocytes. Cette élévation de Na+i déclenche une cascade de mécanismes moléculaires qui aboutissent à la production de substrats énergétiques pouvant être utilisés par les neurones. Durant cette thèse, la mesure simultanée du sodium mitochondrial (Na+mit) et cytosolique par des techniques d'imagerie utilisant des sondes fluorescentes spécifiques, a indiqué que les variations de Na+i induites par le transport du glutamate sont transmises aux mitochondries. De plus, les voies d'entrée et de sortie du sodium mitochondrial ont été identifiées. L'échangeur de Na+ et de Ca2+ mitochondrial semble jouer un rôle primordial dans l'influx de Na+mit, alors que l'efflux de Na+mit est pris en charge par l'échangeur de Na+ et de H+ mitochondrial. L'étude du Na+mit a nécessité l'utilisation d'un système de photoactivation. Les sources de lumière ultraviolette (UV) classiques utilisées à cet effet (lasers, lampes à flash) ayant plusieurs désavantages, une alternative efficace et peu coûteuse a été développée. Il s'agit d'un système compact utilisant une diode électroluminescente (LED) à haute puissance et de longueur d'onde de 365nm. En plus de leurs rôles dans le couplage neurométabolique, les astrocytes participent à la signalisation multicellulaire en transmettant des vagues intercellulaires de calcium. Ce travail de thèse démontre également que des vagues intercellulaires de sodium peuvent être évoquées en parallèle à ces vagues calciques. Le glutamate, suite à sa libération par un mécanisme dépendent du calcium, est réabsorbé par les transporteurs au glutamate. Ce mécanisme a pour conséquence la génération de vagues sodiques se propageant de cellules en cellules. De plus, ces vagues sodiques sont corrélées spatialement avec une consommation accrue de glucose par les astrocytes. En conclusion, ce travail de thèse a permis de montrer que le signal sodique astrocytaire, déclenché en réponse au glutamate, se propage à la fois de façon intracellulaire aux mitochondries et de façon intercellulaire. Ces résultats suggèrent que les astrocytes fonctionnent comme un réseau de cellules nécessaire au couplage énergétique concerté entre neurones et astrocytes et que le sodium est un élément clé dans les mécanismes de signalisations cellulaires sous-jacents. SUMMARY Glutamate, released in the synaptic cleft during neuronal activity, is removed by surrounding astrocytes. Glutamate is taken-up with Na+ ions by specific transporters, inducing an intracellular Na+ (Na+i) elevation in astrocytes which triggers a cascade of molecular mechanisms that provides metabolic substrates to neurons. Thus, astrocytic Na+i homeostasis represents a key component of the so-called neurometabolic coupling. In this context, the first part of this thesis work was aimed at investigating whether cytosolic Na+ changes are transmitted to mitochondria, which could therefore influence their function and contribute to the overall intracellular Na+ regulation. Simultaneous monitoring of both mitochondrial Na+ (Na+mit) and cytosolic Na+ changes with fluorescent dyes revealed that glutamate-evoked cytosolic Na+ elevations are indeed transmitted to mitochondria. The mitochondrial Na+/Ca2+ exchangers have a prominent role in the regulation of Na+mit influx pathway, and Na+mit extrusion appears to be mediated by Na+/H+ exchangers. To demonstrate the implication of Na+/Ca2+ exchangers, this study has required the technical development of an UV-flash photolysis system. Because light sources for flash photolysis have to be powerful and in the near UV range, the use of UV lasers or flash lamps is usually required. As an alternative to these UV sources that have several drawbaks, we developped a compact, efficient and lowcost flash photolysis system which employs a high power 365nm light emitting diode. In addition to their role in neurometabolic coupling, astrocytes participate in multicellular signaling by transmitting intercellular Ca2+ waves. The third part of this thesis show that intercellular Na+ waves can be evoked in parallel to Ca2+ waves. Glutamate released by a Ca2+ wave-dependent mechanism is taken up by glutamate transporters, resulting in a regenerative propagation of cytosolic Na+ increases. Na+ waves in turn lead to a spatially correlated increase in glucose uptake. In conclusion, the present thesis demonstrates that glutamate-induced Na+ changes occurring in the cytosol of astrocytes propagate to both the mitochondrial matrix and the astrocytic network. These results furthermore support the view that astrocytic Na+ is a signal coupled to the brain energy metabolism.
Resumo:
Problématique à résoudre Le difficile pari pour tout individu n'est pas tant de réussir sa vie, mais de s'assurer qu'une fois parti, il permettra à ses proches de poursuivre leur propre existence dans une certaine sérénité et avec le seul souvenir des bons moments passés ensemble. Après le choc de la perte de l'être cher, les aléas d'une succession mal réglée ou la découverte d'un testament inconnu auront tôt fait de ternir l'image du défunt et de mettre en lumière les conflits de famille latents. Que l'on ne se fasse aucune illusion, on règle le partage de sa succession comme on a mené sa vie. La répartition de ses biens par le disposant ou le partage ultérieur de ceux-ci après son décès par les héritiers eux-mêmes, voire, en cas de mésentente, par l'autorité judiciaire, sont des opérations particulièrement douloureuses, non pas tant en raison de la valeur économique que ces biens peuvent représenter pour les héritiers, qu'en raison de leur valeur sentimentale. Si le de cujus souhaite, dans la mesure du possible, éviter tout conflit, il peut décider d'organiser lui-même le partage de sa succession en attribuant directement ses biens à ses héritiers. Mais lorsqu'il procède ainsi, quelle catégorie de dispositions à cause de mort prend-il? Règle de partage, legs, institution d'héritier, ou encore charge? Et si, par surcroît, il détermine la valeur à laquelle il entend attribuer un bien, influence-t-il la nature de la disposition prise? C'est particulièrement à cette seconde question que nous entendons répondre, mais pour ce faire, il est indispensable de débuter ce travail par la qualification de l'attribution d'un bien en tant que tel. Notre étude est divisée en deux parties : la première permettra de présenter les différentes lectures juridiques possibles des attributions de biens que tout individu peut faire à ses héritiers légaux ou à des tiers auxquels il souhaite transmettre une partie de son patrimoine; la seconde s'attachera à déterminer quelles sont les conséquences éventuelles d'une estimation de ses biens par le disposant sur les qualifications juridiques retenues. Souvent en effet, le de cujus ne se limite pas à prévoir à qui doit revenir tel ou tel bien, mais fixe également la valeur de reprise de ce bien.
Resumo:
Résumé La diminution de la biodiversité, à toutes les échelles spatiales et sur l'ensemble de la planète, compte parmi les problèmes les plus préoccupants de notre époque. En terme de conservation, il est aujourd'hui primordial de mieux comprendre les mécanismes qui créent et maintiennent la biodiversité dans les écosystèmes naturels ou anthropiques. La présente étude a pour principal objectif d'améliorer notre compréhension des patrons de biodiversité végétale et des mécanismes sous jacents, dans un écosystème complexe, riche en espèces et à forte valeur patrimoniale, les pâturages boisés jurassiens. Structure et échelle spatiales sont progressivement reconnues comme des dimensions incontournables dans l'étude des patrons de biodiversité. De plus, ces deux éléments jouent un rôle central dans plusieurs théories écologiques. Toutefois, peu d'hypothèses issues de simulations ou d'études théoriques concernant le lien entre structure spatiale du paysage et biodiversité ont été testées de façon empirique. De même, l'influence des différentes composantes de l'échelle spatiale sur les patrons de biodiversité est méconnue. Cette étude vise donc à tester quelques-unes de ces hypothèses et à explorer les patrons spatiaux de biodiversité dans un contexte multi-échelle, pour différentes mesures de biodiversité (richesse et composition en espèces) à l'aide de données de terrain. Ces données ont été collectées selon un plan d'échantillonnage hiérarchique. Dans un premier temps, nous avons testé l'hypothèse élémentaire selon laquelle la richesse spécifique (le nombre d'espèces sur une surface donnée) est liée à l'hétérogénéité environnementale quelque soit l'échelle. Nous avons décomposé l'hétérogénéité environnementale en deux parties, la variabilité des conditions environnementales et sa configuration spatiale. Nous avons montré que, en général, la richesse spécifique augmentait avec l'hétérogénéité de l'environnement : elle augmentait avec le nombre de types d'habitats et diminuait avec l'agrégation spatiale de ces habitats. Ces effets ont été observés à toutes les échelles mais leur nature variait en fonction de l'échelle, suggérant une modification des mécanismes. Dans un deuxième temps, la structure spatiale de la composition en espèces a été décomposée en relation avec 20 variables environnementales et 11 traits d'espèces. Nous avons utilisé la technique de partition de la variation et un descripteur spatial, récemment développé, donnant accès à une large gamme d'échelles spatiales. Nos résultats ont montré que la structure spatiale de la composition en espèces végétales était principalement liée à la topographie, aux échelles les plus grossières, et à la disponibilité en lumière, aux échelles les plus fines. La fraction non-environnementale de la variation spatiale de la composition spécifique avait une relation complexe avec plusieurs traits d'espèces suggérant un lien avec des processus biologiques tels que la dispersion, dépendant de l'échelle spatiale. Dans un dernier temps, nous avons testé, à plusieurs échelles spatiales, les relations entre trois composantes de la biodiversité : la richesse spécifique totale d'un échantillon (diversité gamma), la richesse spécifique moyenne (diversité alpha), mesurée sur des sous-échantillons, et les différences de composition spécifique entre les sous-échantillons (diversité beta). Les relations deux à deux entre les diversités alpha, beta et gamma ne suivaient pas les relations attendues, tout du moins à certaines échelles spatiales. Plusieurs de ces relations étaient fortement dépendantes de l'échelle. Nos résultats ont mis en évidence l'importance du rapport d'échelle (rapport entre la taille de l'échantillon et du sous-échantillon) lors de l'étude des patrons spatiaux de biodiversité. Ainsi, cette étude offre un nouvel aperçu des patrons spatiaux de biodiversité végétale et des mécanismes potentiels permettant la coexistence des espèces. Nos résultats suggèrent que les patrons de biodiversité ne peuvent être expliqués par une seule théorie, mais plutôt par une combinaison de théories. Ils ont également mis en évidence le rôle essentiel joué par la structure spatiale dans la détermination de la biodiversité, quelque soit le composant de la biodiversité considéré. Enfin, cette étude souligne l'importance de prendre en compte plusieurs échelles spatiales et différents constituants de l'échelle spatiale pour toute étude relative à la diversité spécifique. Abstract The world-wide loss of biodiversity at all scales has become a matter of urgent concern, and improving our understanding of local drivers of biodiversity in natural and anthropogenic ecosystems is now crucial for conservation. The main objective of this study was to further our comprehension of the driving forces controlling biodiversity patterns in a complex and diverse ecosystem of high conservation value, wooded pastures. Spatial pattern and scale are central to several ecological theories, and it is increasingly recognized that they must be taken -into consideration when studying biodiversity patterns. However, few hypotheses developed from simulations or theoretical studies have been tested using field data, and the evolution of biodiversity patterns with different scale components remains largely unknown. We test several such hypotheses and explore spatial patterns of biodiversity in a multi-scale context and using different measures of biodiversity (species richness and composition), with field data. Data were collected using a hierarchical sampling design. We first tested the simple hypothesis that species richness, the number of species in a given area, is related to environmental heterogeneity at all scales. We decomposed environmental heterogeneity into two parts: the variability of environmental conditions and its spatial configuration. We showed that species richness generally increased with environmental heterogeneity: species richness increased with increasing number of habitat types and with decreasing spatial aggregation of those habitats. Effects occurred at all scales but the nature of the effect changed with scale, suggesting a change in underlying mechanisms. We then decomposed the spatial structure of species composition in relation to environmental variables and species traits using variation partitioning and a recently developed spatial descriptor, allowing us to capture a wide range of spatial scales. We showed that the spatial structure of plant species composition was related to topography at the coarsest scales and insolation at finer scales. The non-environmental fraction of the spatial variation in species composition had a complex relationship with several species traits, suggesting a scale-dependent link to biological processes, particularly dispersal. Finally, we tested, at different spatial scales, the relationships between different components of biodiversity: total sample species richness (gamma diversity), mean species .richness (alpha diversity), measured in nested subsamples, and differences in species composition between subsamples (beta diversity). The pairwise relationships between alpha, beta and gamma diversity did not follow the expected patterns, at least at certain scales. Our result indicated a strong scale-dependency of several relationships, and highlighted the importance of the scale ratio when studying biodiversity patterns. Thus, our results bring new insights on the spatial patterns of biodiversity and the possible mechanisms allowing species coexistence. They suggest that biodiversity patterns cannot be explained by any single theory proposed in the literature, but a combination of theories is sufficient. Spatial structure plays a crucial role for all components of biodiversity. Results emphasize the importance of considering multiple spatial scales and multiple scale components when studying species diversity.
Resumo:
Problématique¦L'évaluation fonctionnelle du tubule proximal du rein est intéressante pour la compréhension de la physiopathologie des anomalies du transport du sodium à ce niveau du néphron. Ces anomalies participent au développement de l'hypertension artérielle (HTA) et de la sensibilité au sel. Environ 60% à 80% du sodium est réabsorbé proximalement dans le néphron. Chez l'animal, la fonction du tube proximal peut être estimée directement par microponction. Une telle approche directe n'étant pas possible chez l'homme, seul des approches indirectes permettent de recueillir des informations sur la physiologie de ce segment du néphron, comme par exemple par la mesure de la clairance du lithium (endogène ou exogène) ou de l'acide urique. La fraction d'excrétion du lithium (FELi) et la fraction d'excrétion de l'acide urique (FEAU) permettent d'estimer la réabsorption proximale de sodium chez l'homme. Plusieurs études expérimentales et cliniques ont montré l'existence d'une relation linéaire entre la FELi et la fraction excrétée du sodium (FENa) chez l'animal et l'homme.¦Objectif¦Décrire la distribution de la FELi et de la FEAU et analyser les associations de ces deux variables avec l'âge, le sexe, la consommation d'alcool, le tabagisme, la pression artérielle et l'IMC dans l'étude de population Hercules.¦Méthodes¦Sélection au hasard d'un sous-groupe de participants de l'étude CoLaus (N=6188). Nombre de participants à l'étude Hercules: 437, dont 229 femmes et 208 hommes. Les participants ont effectué une récolte d'urine sur 24 heures afin de déterminer la fonction rénale et les FELi et FEAU. Le TFG a été mesuré à l'aide de la clairance de la créatinine. Le test des rangs signés de Wilcoxon pour données appariées ( Wilcoxon matched-pairs signed rank test) et le test de comparaison des médianes ont été utilisés pour la comparaison entre groupes. Le coefficient de corrélation de Spearman a été utilisé pour évaluer la relation entre les variables continues. Les box-plots ont été utilisés pour la description de la distribution du lithium et de l'acide urique selon l'âge, le sexe et la période de la journée. Le logiciel Stata 11.0 a été utilisé pour les analyses statistiques.¦Résultats¦La prévalence de l'HTA dans la population de l'étude Hercules était 33%, la prévalence du diabète était 8%, la prévalence de l'obésité était 15.3%, la prévalence du tabagisme était 23%. La FELi reste stable avec l'âge et est similaire dans les deux sexes. Chez les hommes, la FELi est plus grande la nuit que le jour, c'est-à-dire qu'ils résorbent plus de sodium proximalement le jour que la nuit. Un IMC plus grand est associé à une FELi plus basse dans les deux sexes. Il y a une corrélation négative entre la FEAU et l'IMC (significative) et la consommation d'alcool.¦Conclusion¦Les résultats obtenus avec les données de l'étude Hercules sont similaires à ceux qu'on retrouve dans la littérature sur la FELi et la FEAU , ce qui rassure sur la qualité des données. La FELi varie peu avec l'âge et le sexe, contrairement à la FEAU, qui varie fortement avec l'âge et le sexe. L'HTA, le diabète, l'obésité, le tabagisme et la consommation d'alcool sont associées à une FELi et FEAU plus basses. Les sujets qui présentent ces caractéristiques réabsorbent donc plus de sodium au niveau proximal.
Resumo:
En aquest treball presentem l’estat de la recerca de la metrologia ibèrica aplicada a l’arquitectura. S’analitza un conjunt ample d’assentaments, amb una cronologia que abasta des de l’ibèric ple fins a la romanització, i un àmbit geogràfic que comprèn tot el nord-est de la península Ibèrica. L’anàlisi metrològica de l’urbanisme i els sistemes defensius ibèrics ens han permès identificar dos possibles sistemes de mesures propis de les comunitats ibèriques. La definició de les proporcions geomètriques emprades a les construccions, així com les propostes de restitució d’aquestes, ens permet identificar una repetició de mòduls que mostren el probable ús d’eines de mesura. Conjuntament, hem comprovat que tant l’aplicació d’unitats constructives mediterrànies com dels principals sistemes de proporcions indiquen que el món ibèric català es troba immers dintre dels principals corrents característics de la koiné mediterrània entre els segles V i II aC
Resumo:
Le présent travail rend compte de la double articulation d'analyse pensée par Antoine Berman dans Pour une critique des traductions: John Donne (Gallimard, 1994). La méthode bermanienne s'attache tant à une histoire, événementielle et individuelle, des traductions qu'à une analyse des textes à la lumière de leurs entours (paratextes, projets de traduction, etc.). Dans une première partie, nous tenterons de décrire et de comprendre à l'aide d'un panorama historique l'importation de la poésie de Rilke en traduction française, des premières versions du début du XXe siècle aux dernières traductions des Élégies de Duino (2008, 2010). Reprenant la formule de Berman, nous « irons au traducteur », à sa façon de traduire et à la traduction qu'il livre. Nous nous pencherons ainsi sur l'identité de ces traducteurs (premiers ou bien nouveaux), sur leur statut socioculturel ainsi que sur les circonstances dans lesquelles ils furent amenés à traduire et virent leur travail publié. Il s'agira d'établir de façon synthétique ce que Berman, sous l'influence de H. R. Jauss, dénomme l' « horizon » d'une traduction qui, à une date donnée, prend en compte une pluralité de critères allant de traits propres au traducteur aux codes poétiques en vigueur dans le vaste champ des Lettres et la société. Nous replacerons ainsi la traduction dans le plus large contexte du transfert culturel et de l'importation et examinerons les traducteurs en présence : les universitaires, les poètes, les traducteurs à plein temps et, dans une moindre mesure, les philosophes. De ce panorama historique émergera l'idée d'une concurrence entre les multiples traducteurs de la poésie de Rilke, plus spécialement entre universitaires et poètes. Dans une seconde partie, reflet de l'autre facette de la pensée bermanienne, nous procèderons à la comparaison et à l'évaluation critique de plusieurs versions françaises de la première Élégie de Duino - opus poétique rilkéen le plus retraduit en français. Notre corpus se limitera à cette première Élégie et à une dizaine de versions françaises que nous faisons dialoguer ou s'opposer. Partant de premières considérations sur l'enveloppe prosodique et typographique du poème, qui nous permettent de saisir la diversité des entreprises et de cerner tant des lignes de force communes que la singularité d'expérimentations plus marginales, nous « confronterons » ensemble les quatre premières versions françaises de la première Élégie, accomplies quasi simultanément dans les années 1930 par des traducteurs d'horizons variés (un germaniste, J.F. Angelloz, une artiste-peintre, L. Albert-Lasard, un traducteur de métier, M. Betz, et un poète, A. Guerne). Il s'agira de saisir l'apport de chacune d'entre elles, ainsi que le type de lien qui les unit (ou les oppose). L'étude de la quatrième version, celle d'Armel Guerne, nous mènera presque naturellement vers la question de la perception de l'écart poétique et du caractère extra-ordinaire de l'original. A la lumière de cette problématique cardinale en poésie, nous procèderons à la comparaison de versions issues des cinquante dernières années et, en considérant plusieurs éléments de sens, nous tenterons de voir comment chaque traducteur, qui est aussi et avant tout un lecteur, a perçu et restitué dans son texte français la matière poétique propre de l'original. Au terme de ce parcours contrastif parmi différentes versions de la première Élégie, nous confronterons les résultats de notre analyse textuelle et le constat de concurrence qui se dégageait de la première partie. Il s'agira de voir alors si la pratique traductive, telle qu'elle se manifeste concrètement au niveau du texte, reflète un antagonisme particulier entre Poésie et Université, ou s'il convient au contraire de relativiser, voire démystifier cette dichotomie.