560 resultados para vitesse aérobie maximale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cerveau est l'organe avec les besoins en énergie les plus élevés du corps humain, et le glucose est un substrat énergétique cérébral essentiel. Ces dernières décennies, la compréhension de la neuroénergétique a beaucoup évolué et un rôle du lactate comme substrat énergétique important a été mis en évidence, notamment suite à l'introduction du modèle de l'ANLS (astrocyte-neuron lactate shuttle). Selon celui-ci, les astrocytes convertissent le glucose en lactate par réaction de glycolyse, puis il est transporté jusqu'aux neurones qui l'utilisent comme source d'énergie à travers le cycle de Krebs. Chez l'homme, divers travaux récents ont montré que le lactate peut servir de « carburant » cérébral chez le sujet sain, après effort intense ou chez le patient diabétique. La régulation métabolique et le rôle du lactate après lésion cérébrale aiguë sont encore peu connus. Présentation de l'article Le but de ce travail a été d'étudier le métabolisme cérébral du lactate chez les patients atteints de traumatisme crânien (TCC) sévère. Nous avons émis l'hypothèse que l'augmentation du lactate cérébral chez ces patients n'était pas associée de manière prédominante à une hypoxie ou une ischémie mais plutôt à une glycolyse aérobie, et également à une perfusion cérébrale normale. L'étude a porté sur une cohorte prospective de 24 patients avec TCC sévère admis au service de médecine intensive du CHUV (centre hospitalier universitaire vaudois), monitorés par un système combinant microdialyse cérébrale (outil permettant de mesurer divers métabolites cérébraux, tels que le lactate, le pyruvate et le glucose), mesure de la pression cérébrale en oxygène et de la pression intracrânienne. Cet outil nous a permis de déterminer si l'élévation du lactate était principalement associée à une glycolyse active ou plutôt à une hypoxie. L'utilisation du CTde perfusion a permis d'évaluer la relation entre les deux patterns d'élévation du lactate (glycolytique ou hypoxique) et la perfusion cérébrale globale. Nos résultats ont montré que l'augmentation du lactate cérébral chez les patients avec TCC sévère était associée de manière prédominante à une glycolyse aérobie plutôt qu'à une hypoxie/ischémie. D'autre part, nous avons pu confirmer que les épisodes de lactate glycolytique étaient toujours associés à une perfusion cérébrale normale ou augmentée, alors que les épisodes de lactate hypoxique étaient associés à une hypoperfusion cérébrale. Conclusions et perspectives Nos résultats, qui ont permis de mieux comprendre le métabolisme cérébral du lactate chez les patients avec TCC sévère, soutiennent le concept que le lactate est produit dans des conditions aérobes et pourrait donc être utilisé comme source d'énergie par le cerveau lésé pour subvenir à des besoins augmentas. Etant donné que la dysfonction énergétique est une des probables causes de perte neuronale après traumatisme crânien, ces résultats ouvrent des perspectives thérapeutiques nouvelles après agression cérébrale chez l'homme, visant à tester un potentiel effet neuroprotecteur via l'administration de lactate exogène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse cible l'étude de la structure thermique de la croûte supérieure (<10km) dans les arcs magmatiques continentaux, et son influence sur l'enregistrement thermochronologique de leur exhumation et de leur évolution topographique. Nous portons notre regard sur deux chaînes de montagne appartenant aux Cordillères Américaines : Les Cascades Nord (USA) et la zone de faille Motagua (Guatemala). L'approche utilisée est axée sur la thermochronologie (U-Th-Sm)/He sur apatite et zircon, couplée avec la modélisation numérique de la structure thermique de la croûte. Nous mettons en évidence la variabilité à la fois spatiale et temporelle du gradient géothermique, et attirons l'attention du lecteur sur l'importance de prendre en compte la multitude des processus géologiques perturbant la structure thermique dans les chaînes de type cordillère, c'est à dire formées lors de la subduction océanique sous un continent.Une nouvelle approche est ainsi développée pour étudier et contraindre la perturbation thermique autour des chambres magmatiques. Deux profiles âge-elevation (U-Th-Sm)/He sur apatite et zircon, ont été collectées 7 km au sud du batholithe de Chilliwack, Cascades Nord. Les résultats montrent une variabilité spatiale et temporelle du gradient géothermique lors de l'emplacement magmatique qui peut être contrainte et séparé de l'exhumation. Durant l'emplacement de l'intrusion, la perturbation thermique y atteint un état d'équilibre (-80-100 °C/km) qui est fonction du flux de magma et de ia distance à la source du magma, puis rejoint 40 °C/km à la fin du processus d'emplacement magmatique.Quelques nouvelles données (U-Th)/He, replacées dans une compilation des données existantes dans les Cascades Nord, indiquent une vitesse d'exhumation constante (-100 m/Ma) dans le temps et l'espace entre 35 Ma et 2 Ma, associée à un soulèvement uniforme de la chaîne contrôlé par l'emplacement de magma dans la croûte durant toute l'activité de l'arc. Par contre, après ~2 Ma, le versant humide de la chaîne est affecté par une accélération des taux d'exhumation, jusqu'à 3 km de croûte y sont érodés. Les glaciations ont un triple effet sur l'érosion de cette chaîne: (1) augmentation des vitesses d'érosion, d'exhumation et de soulèvement la où les précipitations sont suffisantes, (2) limitation de l'altitude contrôlé par la position de Γ Ε LA, (3) élargissement du versant humide et contraction du versant aride de la chaîne.Les modifications des réseaux de drainage sont des processus de surface souvent sous-estimés au profil d'événements climatiques ou tectoniques. Nous proposons une nouvelle approche couplant une analyse géomorphologique, des données thermochronologiques de basse température ((U-Th-Sm)/He sur apatite et zircon), et l'utilisation de modélisation numérique thermo-cinématique pour les mettre en évidence et les dater; nous testons cette approche sur la gorge de la Skagit river dans les North Cascades.De nouvelles données (U-Th)/He sur zircons, complétant les données existantes, montrent que le déplacement horizontal le long de la faille transformante continentale Motagua, la limite des plaques Caraïbe/Amérique du Nord, a juxtaposé un bloc froid, le bloc Maya (s.s.), contre un bloque chaud, le bloc Chortis (s.s.) originellement en position d'arc. En plus de donner des gammes d'âges thermochronologiques très différents des deux côtés de la faille, le déplacement horizontal rapide (~2 cm/a) a produit un fort échange thermique latéral, résultant en un réchauffement du côté froid et un refroidissement du côté chaud de la zone de faille de Motagua.Enfin des données (U-Th-Sm)/He sur apatite témoignent d'un refroidissement Oligocène enregistré uniquement dans la croûte supérieure de la bordure nord de la zone de faille Motagua. Nous tenterons ultérieurement de reproduire ce découplage vertical de la structure thermique par la modélisation de la formation d'un bassin transtensif et de circulation de fluides le long de la faille de Motagua. - This thesis focuses on the influence of the dynamic thermal structure of the upper crust (<10km) on the thermochronologic record of the exhumational and topographic history of magmatic continental arcs. Two mountain belts from the American Cordillera are studied: the North Cascades (USA) and the Motagua fault zone (Guatemala). I use a combined approach coupling apatite and zircon (U-Th-Sm}/He thermochronology and thermo- kinematic numerical modelling. This study highlights the temporal and spatial variability of the geothermal gradient and the importance to take into account the different geological processes that perturb the thermal structure of Cordilleran-type mountain belts (i.e. mountain belts related to oceanic subduction underneath a continent}.We integrate apatite and zircon (U-Th)/He data with numerical thermo-kinematic models to study the relative effects of magmatic and surface processes on the thermal evolution of the crust and cooling patterns in the Cenozoic North Cascades arc (Washington State, USA). Two age-elevation profiles that are located 7 km south of the well-studied Chiliiwack intrusions shows that spatial and temporal variability in geothermal gradients linked to magma emplacement can be contrained and separated from exhumation processes. During Chiliiwack batholith emplacement at -35-20 Ma, the geothermal gradient of the country rocks increased to a very high steady-state value (80-100°C/km), which is likely a function of magma flux and the distance from the magma source area. Including temporally varying geothermal gradients in the analysis allows quantifying the thermal perturbation around magmatic intrusions and retrieving a relatively simple denudation history from the data.The synthesis of new and previously published (U-Th)/He data reveals that denudation of the Northern Cascades is spatially and temporally constant at -100 m/Ma between ~32 and ~2 Ma, which likely reflects uplift due to magmatic crustal thickening since the initiation of the Cenozoic stage of the continental magmatic arc. In contrast, the humid flank of the North Cascades is affected by a ten-fold acceleration in exhumation rate at ~2 Ma, which we interpret as forced by the initiation of glaciations; around 3 km of crust have been eroded since that time. Glaciations have three distinct effects on the dynamics of this mountain range: (1) they increase erosion, exhumation and uplift rates where precipitation rates are sufficient to drive efficient glacial erosion; (2) they efficiently limit the elevation of the range; (3) they lead to widening of the humid flank and contraction of the arid flank of the belt.Drainage reorganizations constitute an important agent of landscape evolution that is often underestimated to the benefit of tectonic or climatic events. We propose a new method that integrates geomorphology, low-temperature thermochronometry (apatite and zircon {U-Th-Sm)/He), and 3D numerical thermal-kinematic modelling to detect and date drainage instability producing recent gorge incision, and apply this approach to the Skagit River Gorge, North Cascades.Two zircon (U-Th)/He age-elevation profiles sampled on both sides of the Motagua Fault Zone (MFZ), the boundary between the North American and the Caribbean plates, combined with published thermochronological data show that strike-slip displacement has juxtaposed the cold Maya block (s.s.) against the hot, arc derived, Chortis block (s.s ), producing different age patterns on both sides of the fault and short-wavelength lateral thermal exchange, resulting in recent heating of the cool side and cooling of the hot side of the MFZ.Finally, an apatite (U-Th-Sm)/He age-elevation profile records rapid cooling at -35 Ma localized only in the upper crust along the northern side of the Motagua fault zone. We will try to reproduce these data by modeling the thermal perturbation resulting from the formation of a transtensional basin and of fluid flow activity along a crustal- scale strike-slip fault.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats des recherches contemporaines, montrant notamment l'importance du raisonnement fluide, de la mémoire de travail (IMT) et de la vitesse de traitement (IVT) dans le fonctionnement cognitif, ont conduit les concepteurs de la WAIS-IV à introduire de nouvelles épreuves pour renforcer l'évaluation de ces dimensions cognitives. L'interprétation des scores de la WAIS-IV repose maintenant sur quatre indices factoriels (ICV, IRP, IMT et IVT), ainsi que sur le QIT. Les concepteurs de la WAIS-IV indiquent que l'un des objectifs de la révision consistait à actualiser les fondements théoriques de cette échelle. Pourtant, la structure globale de la WAIS-IV ne correspond que partiellement à celle proposée dans le modèle qui fait consensus aujourd'hui, le modèle de Cattell-Horn-Carroll (CHC). Par exemple, la WAIS-IV ne propose pas d'indice de raisonnement fluide, bien que les constructeurs soulignent l'importance de cette dimension dans le fonctionnement cognitif. Dans cet article, nous proposons, pour la WAIS-IV, les normes francophones de cinq scores composites CHC, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm), et l'IVT (Gs). Ces normes ont été établies en utilisant une procédure d'approximation statistique. À l'instar des scores CHC que nous avons proposés pour le WISCIV, ces normes pour la WAIS-IV permettent aux cliniciens de basculer vers une grille d'interprétation basée sur le modèle dominant et d'utiliser les cinq scores composites CHC en complément des quatre indices standard dans le cadre d'analyses normatives et ipsatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Alors que les pratiques religieuses régulières diminuent et que les groupes religieux majoritaires perdent des membres formellement enregistrés, une évènementisation de l'appartenance religieuse peut être observée depuis environ deux décennies. Dans un premier exemple, l'auteure montre que le réseau transnational de la confrérie soufie des Mourides resserre les liens entre adeptes dans un contexte migratoire qui tend à fragiliser les relations sociales. La confrérie y fait face à travers une spectacularisation de la pratique religieuse, occupant l'espace public à Harlem ou, dans une moindre mesure, à Paris. Le second exemple traite du pèlerinage aux Saintes et Saints d'Afrique dans la ville valaisanne de Saint Maurice. Ce dernier fut inventé par l'Église catholique suisse afin d'attirer des migrants africains, mais aussi afin de redynamiser une pratique religieuse ordinaire en perte de vitesse. L'évènement a lieu en même temps que le pèlerinage de Namugongo en Ouganda, réunissant plus d'un demi-million de personnes. Les communautés évènementielles ainsi créées sont-elles durables ou plutôt liquides ? Abstract While regular religious practice is decreasing and the major religious groups are losing formally registered members, a 'spectacularization' of religious belonging can be observed over the last two decades. The author presents two examples to support this argument. In the first, the transnational network of the Murids, a Sufi brotherhood, has tried to reinforce the relations between its members, which become fragile during migration. The brotherhood occupies a public space in Harlem, and, to a lesser extent, in Paris, in a spectacularization of religious belonging, in order to remain attractive to migrants. The second example deals with the pilgrimage dedicated to African Saints in the Swiss town of Saint Maurice. This event was invented by the missionary service of the Swiss Catholic Church in order to attract African migrants, but also in order to make ordinary religious practice more appealing. The event takes place at the same time as the Ugandan pilgrimage of Namugongo, which assembles more than half a million people. However, are these 'event communities' sustainable or ephemeral?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La mobilité ne signifie plus uniquement se mouvoir d'un point à un autre ; il s'agit d'un concept lui-même en constante évolution, grâce au progrès technique et à l'innovation sociale notamment. Aujourd'hui, la recherche de la vitesse n'est plus le seul enjeu au coeur de nos préoccupations. Elle a été remplacée par un retour au voyage enrichi par l'expérience et ce quelle que soit sa durée. Cet enrichissement s'est principalement fait par le truchement des technologies de l'information et de la communication et peut prendre plusieurs formes liées aux problématiques contemporaines de la ville et du territoire. Citons comme exemple la valorisation du temps de déplacement, grâce à un meilleur accès à l'information (travail, réseaux sociaux, etc.) et à la recherche d'une plus grande cohérence entre l'acte de se mouvoir et l'environnement proche ou lointain. Cette « recontextualisation » du mouvement nous interpelle dans notre rapport à l'espace et nous donne également des pistes pour repenser le métier d'urbaniste de la ville intelligente. Abstract Mobility issues do not only involve the act of moving nowadays. The concept itself evolves continuously thanks to technological and social innovations. The main stakes do not focus anymore on improving speed, but on enriching the experience of travelling, even in the case of short trips. One of the main factors that fosters this evolution is the progressive adoption of information and communication technologies that help to reshape the issues of contemporary cities. For example, the quality of travel time has improved thanks to the ubiquitous accessibility to information, and by offering a better coherence between the trip and the immediate social environment. The "recontextualisation" of everyday activities (working, interacting, etc.) challenges the relationship individuals have with space and offers many clues in regard to the required skills that urban planners and designers of the smart city should possess.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Crans-Montana-Sierre is a tourist area locateci in Rhone valley in central Valais, cha-racterized by dry climate and scarce summer precipitations. More than other regions in Switzerland, this area has suffered the effects of the drought (heat wave) that affec¬ted all Western Europe during summer 2003. In the future, climate change together with societal and economic development will signicantly modify the water need of the region and, consequently, may increase the potential conflicts of interest. Within a long term planning strategy, decision-makers require precise information about the current amount of water needed in the region, with particular attention to temporal and spatial concentration, and the forecasted amount for 2050. This work therefore aims at estimating the variation of the water demand by taking into account the influence of climate change (CH2011) and socio-economic scenarios, developed in cooperation with the competent authorities. This thesis, whose aim is to study the water management and water uses is a core part of the MontanAqua project "Water management in times of scarcity and global change" mainly because of its interdisciplinary topic at the interface between water resources, land development and the socio-political structure. Results show that socio-economic development by 2050 could have a greater impact than expected climate changes (CH2011, A1B scenarios) for the same time horizon for water demand. Demography, spatial planning, tourism and economic development are just some of the factors that could significantly affect the water consumption of the Crans-Montana-Sierre region. Compared with the future water resources available, the maximal water demand forecasted by the socio-economic scenarios developed within the project MontanAqua, could not always be satisfied. This issue, like extreme climate phenomena (as it was the summer drought occurred in 2003 or in April / May 2011), could be mitigated adopting regional management policies relating to a more rational water use and preventive storage of water resource. - Crans-Montana-Sierre est une région touristique située dans la vallée du Rhône; dans le Valais central, qui se caractérise par un climat relativement pauvre en précipitations et qui plus que d'autres a subi les effets de la sécheresse qui a touché l'Europe occidentale durant l'été 2003. À l'avenir, les changements climatiques ainsi que le développement socio-économique modifieront de manière significative les besoins en eau de la région, ce qui risque de faire augmenter les rivalités d'usage concernant cette ressource. Afin de jouer à l'avance, les décideurs ont besoin d'informations précises sur la quantité d'eau nécessaire à la région, avec une attention particulière à sa concentration temporelle et spatiale, à l'heure actuelle et à l'horizon 2050. Ce travail vise donc à estimer la variation de la demande en eau en tenant compte de l'influence des changements climatiques (CH2011) et des scénarios socio-économiques, élaborés en collaboration avec les autorités compétentes. Cette thèse, qui met l'accent sur les usages de l'eau fait partie du projet Montan Aqua « Gestion de l'eau en temps de pénurie et de changement global », est à l'intersection entre les ressources hydriques, l'aménagement du territoire et son organisation socio-politique, fait qui la met, non pas par son importance, mais par son emplacement et ses interconnexions, au coeur de cette recherche. Les résultats obtenus montrent comment les développements socio-économiques d'ici à 2050 ont un impact potentiellement plus important que les changements climatiques prévus par les scénarios AlB de CH2011 pour le même horizon temporel sur la demande en eau. Démographie, aménagement du territoire et contexte économico-touristique, ne sont que quelques-uns des facteurs qui ont la capacité d'agir significativement sur les usages de l'eau en ce qui concerne les aspects qualitatif et quantitatif de la région de Crans-Montana-Sierre. Par rapport aux ressources en eau disponibles à l'avenir, la demande maximale d'eau prévue par les scénarios socio-économiques développés au sein du projet MontanAqua risque de ne pas être toujours satisfaite. Ce danger et la manifestation de phénomènes climatiques extrêmes, comme la sécheresse estivale survenue en 2003 ou celle d'avril/mai 2011, ne pourront être atténués que par l'adoption de politiques de gestion à l'échelle régionale favorisant une utilisation plus rationnelle et un stockage préventif de la ressource en eau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Objectif : L'hyperplasie intimale est un processus de remodelage vasculaire qui apparaît après une lésion vasculaire. Les mécanismes impliqués dans l'hyperplasie intimale sont la prolifération, la dédifférentiation et la migration des cellules musculaires lisses depuis la média vers l'espace sous-intimal. Nous avons émis l'hypothèse que les jonctions communicantes de type gap, qui coordonnent certains processus physiologiques tels que la croissance et la différentiation cellulaire, pouvaient participer au développement de l'hyperplasie intimale. Méthodes : Des segments de veines saphènes humaines prélevées chirurgicalement lors de pontages, ont été ouverts longitudinalement avec la surface luminale placée vers le haut et maintenus en culture pendant 14 jours. Des fragments veineux ont été préparés pour une évaluation histologique, pour des mesures de l'épaisseur de la néointima, et pour des analyses immunocytochimiques de l'ARN messager ainsi que des protéines. Résultats : Parmi les 4 connexines (Cxs 37, 40, 43 et 45) qui forment les jonctions communicantes dans les veines, nous avons focalisé notre étude sur l'expression des Cxs 43 et 40; nous avons démontré que la Cx43 est exprimée dans les cellules musculaires lisses et les cellules endothéliales alors que la Cx40 est uniquement présente dans l'endothélium. Après 14 jours en culture, des analyses histomorphométriques ont montré une augmentation significative de l'épaisseur de l'intima démontrant la présence d'hyperplasie intimale. Une analyse temporelle a révélé une augmentation progressive de la Cx43 jusqu'à une augmentation maximale de six à huit fois au niveau de l'ARN messager et des protéines après 14 jours en culture. Au contraire, l'expression de la Cx40 n'était pas modifiée. Des analyses par immunofluorescence ont montré également une augmentation de la Cx43 dans les membranes des cellules musculaires lisses de la média. Le développement de l'hyperplasie intimale in vitro est diminué en présence de fluvastatin et cette diminution est associée à une réduction de l'expression de la Cx43. Conclusions : Ces données démontrent que la Cx43 est augmentée in vitro pendant le processus d'hyperplasie intimale et que la fluvastatin prévient cette induction. Ces résultats suggèrent un rôle crucial joué par la communication intercellulaire impliquant la Cx43 dans la veine humaine durant le développement de l'hyperplasie intimale. Abstract Objective: Intimal hyperplasia is a vascular remodelling process that occurs after a vascular injury. The mechanisms involved in intimal hyperplasia are proliferation, dedifferentiation, and migration of medial smooth muscle cells towards the subintimal space. We postulated that gap junctions, which coordinate physiologic processes such as cell growth and differentiation, might participate in the development of intimal hyperplasia. connexin43 (Cx43) expression levels may be altered in intimal hyperplasia, and we therefore evaluated the regulated expression of Cx43 in human saphenous veins in culture in the presence or not of fluvastatin, an inhibitor of 3-hydroxy-3-methylglutaryl-coenzyme A reductase activity. Methods: Segments of harvested human saphenous veins, obtained at the time of bypass graft, were opened longitudinally with the luminal surface uppermost and maintained in culture for 14 days. Vein fragments were then processed for histologic examination, neointimal thickness measurements, immunocytochemistry, RNA, and proteins analysis. Results: Of the four connexins (Cx37, 40, 43, and 45), we focused on Cx43 and Cx40, which we found by real-time polymerase chain reaction to be expressed in the saphenous vein because they are the predominant connexins expressed by smooth muscle cells and endothelial cells. Afrer 14 days of culture, histomorphometric analysis showed a significant increase in the intimal thickness as observed during the process of intimal hyperplasia. Atime-course analysis revealed a progressive upregulation of Cx43 to reach a maximal increase of sixfold to eightfold at both transcript and protein levels after 14 days in culture. In contrast, the expression of Cx40, abundantly expressed in the endothelial cells, was not altered. Immunofluorescence showed a large increase in Cx43 within smooth muscle cell membranes of the media layer. The development of intimal hyperplasia in vitro was decreased in presence of fluvastatin and was associated with reduced Cx43 expression. Conclusions: These data show that Cx43 is increased in vitro during the process of intimal hyperplasia and that fluvastatin could prevent this induction, supporting a critical role for Cx43-mediated gap-junctional communication in the human vein during the development of intimal hyperplasia. (J Vasc Surg 2005;41:1043-52.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

THESIS ABSTRACT Nucleation and growth of metamorphic minerals are the consequence of changing P-T-X-conditions. The thesis presented here focuses on processes governing nucleation and growth of minerals in contact metamorphic environments using a combination of geochemical analytics (chemical-, isotope-, and trace element composition), statistical treatments of spatial data, and numerical models. It is shown, that a combination of textural modeling and stable isotope analysis allows a distinction between several possible reaction paths for olivine growth in a siliceous dolomite contact aureole. It is suggested that olivine forms directly from dolomite and quartz. The formation of olivine from this metastable reaction implies metamorphic crystallization far from equilibrium. As a major consequence, the spatial distribution of metamorphic mineral assemblages in a contact aureole cannot be interpreted as a proxy for the temporal evolution of a single rock specimen, because each rock undergoes a different reaction path, depending on temperature, heating rate, and fluid-infiltration rate. A detailed calcite-dolomite thermometry study was initiated on multiple scales ranging from aureole scale to the size of individual crystals. Quantitative forward models were developed to evaluate the effect of growth zoning, volume diffusion and the formation of submicroscopic exsolution lamellae (<1 µm) on the measured Mg-distribution in individual calcite crystals and compare the modeling results to field data. This study concludes that Mg-distributions in calcite grains of the Ubehebe Peak contact aureole are the consequence of rapid crystal growth in combination with diffusion and exsolution. The crystallization history of a rock is recorded in the chemical composition, the size and the distribution of its minerals. Near the Cima Uzza summit, located in the southern Adamello massif (Italy), contact metamorphic brucite bearing dolomite marbles are exposed as xenoliths surrounded by mafic intrusive rocks. Brucite is formed retrograde pseudomorphing spherical periclase crystals. Crystal size distributions (CSD's) of brucite pseudomorphs are presented for two profiles and combined with geochemistry data and petrological information. Textural analyses are combined with geochemistry data in a qualitative model that describes the formation periclase. As a major outcome, this expands the potential use of CSD's to systems of mineral formation driven by fluid-infiltration. RESUME DE LA THESE La nucléation et la croissance des minéraux métamorphiques sont la conséquence de changements des conditions de pression, température et composition chimique du système (PT-X). Cette thèse s'intéresse aux processus gouvernant la nucléation et la croissance des minéraux au cours d'un épisode de métamorphisme de contact, en utilisant la géochimie analytique (composition chimique, isotopique et en éléments traces), le traitement statistique des données spatiales et la modélisation numérique. Il est montré que la combinaison d'un modèle textural avec des analyses en isotopes stables permet de distinguer plusieurs chemins de réactions possibles conduisant à la croissance de l'olivine dans une auréole de contact riche en Silice et dolomite. Il est suggéré que l'olivine se forme directement à partir de la dolomie et du quartz. Cette réaction métastable de formation de l'olivine implique une cristallisation métamorphique loin de l'équilibre. La principale conséquence est que la distribution spatiale des assemblages de minéraux métamorphiques dans une auréole de contact ne peut pas être considérée comme un témoin de l'évolution temporelle d'un type de roche donné, puisque chaque type de roche suit différents chemins de réactions, en fonction de la température, la vitesse de réchauffement et le taux d'infiltration du fluide. Une étude thermométrique calcite-dolomite détaillée a été réalisée à diverses échelles, depuis l'échelle de l'auréole de contact jusqu'à l'échelle du cristal. Des modèles numériques quantitatifs ont été développés pour évaluer l'effet des zonations de croissance, de la diffusion volumique et de la formation de lamelles d'exsolution submicroscopiques (<1µm) sur la distribution du magnésium mesuré dans des cristaux de calcite individuels. Les résultats de ce modèle ont été comparés ä des échantillons naturels. Cette étude montre que la distribution du Mg dans les grains de calcite de l'auréole de contact de l'Ubehebe Peak (USA) résulte d'une croissance cristalline rapide, associée aux processus de diffusion et d'exsolution. L'histoire de cristallisation d'une roche est enregistrée dans la composition chimique, la taille et la distribution de ses minéraux. Près du sommet Cima Uzza situé au sud du massif d'Adamello (Italie), des marbres dolomitiques à brucite du métamorphisme de contact forment des xénolithes dans une intrusion mafique. La brucite constitue des pseudomorphes rétrogrades du périclase. Les distributions de taille des cristaux (CSD) des pseudomorphes de brucite sont présentées pour deux profiles et sont combinées aux données géochimiques et pétrologiques. Les analyses textorales sont combinées aux données géochimiques dans un modèle qualitatif qui décrit la formation du périclase. Ceci élargit l'utilisation potentielle de la C5D aux systèmes de formation de minéraux controlés par les infiltrations fluides. THESIS ABSTRACT (GENERAL PUBLIC) Rock textures are essentially the result of a complex interaction of nucleation, growth and deformation as a function of changing physical conditions such as pressure and temperature. Igneous and metamorphic textures are especially attractive to study the different mechanisms of texture formation since most of the parameters like pressure-temperature-paths are quite well known for a variety of geological settings. The fact that textures are supposed to record the crystallization history of a rock traditionally allowed them to be used for geothermobarometry or dating. During the last decades the focus of metamorphic petrology changed from a static point of view, i.e. the representation of a texture as one single point in the petrogenetic grid towards a more dynamic view, where multiple metamorphic processes govern the texture formation, including non-equilibrium processes. This thesis tries to advance our understanding on the processes governing nucleation and growth of minerals in contact metamorphic environments and their dynamic interplay by using a combination of geochemical analyses (chemical-, isotope-, and trace element composition), statistical treatments of spatial data and numerical models. In a first part the thesis describes the formation of metamorphic olivine porphyroblast in the Ubehebe Peak contact aureole (USA). It is shown that not the commonly assumed succession of equilibrium reactions along a T-t-path formed the textures present in the rocks today, but rather the presence of a meta-stable reaction is responsible for forming the olivine porphyroblast. Consequently, the spatial distribution of metamorphic minerals within a contact aureole can no longer be regarded as a proxy for the temporal evolution of a single rock sample. Metamorphic peak temperatures for samples of the Ubehebe Peak contact aureole were determined using calcite-dolomite. This geothermometer is based on the temperature-dependent exchange of Mg between calcite and dolomite. The purpose of the second part of this thesis was to explain the interfering systematic scatter of measured Mg-content on different scales and thus to clarify the interpretation of metamorphic temperatures recorded in carbonates. Numerical quantitative forward models are used to evaluate the effect of several processes on the distribution of magnesium in individual calcite crystals and the modeling results were then compared to measured field. Information about the crystallization history is not only recorded in the chemical composition of grains, like isotope composition or mineral zoning. Crystal size distributions (CSD's) provide essential information about the complex interaction of nucleation and growth of minerals. CSD's of brucite pseudomorphs formed retrograde after periclase of the southern Adamello massif (Italy) are presented. A combination of the textural 3D-information with geochemistry data is then used to evaluate reaction kinetics and to constrain the actual reaction mechanism for the formation of periclase. The reaction is shown to be the consequence of the infiltration of a limited amount of a fluid phase at high temperatures. The composition of this fluid phase is in large disequilibrium with the rest of the rock resulting in very fast reaction rates. RESUME DE LA THESE POUR LE GRAND PUBLIC: La texture d'une roche résulte de l'interaction complexe entre les processus de nucléation, croissance et déformation, en fonction des variations de conditions physiques telles que la pression et la température. Les textures ignées et métamorphiques présentent un intérêt particulier pour l'étude des différents mécanismes à l'origine de ces textures, puisque la plupart des paramètres comme les chemin pression-température sont relativement bien contraints dans la plupart des environnements géologiques. Le fait que les textures soient supposées enregistrer l'histoire de cristallisation des roches permet leur utilisation pour la datation et la géothermobarométrie. Durant les dernières décennies, la recherche en pétrologie métamorphique a évolué depuis une visualisation statique, c'est-à-dire qu'une texture donnée correspondait à un point unique de la grille pétrogénétique, jusqu'à une visualisation plus dynamique, où les multiples processus métamorphiques qui gouvernent 1a formation d'une texture incluent des processus hors équilibre. Cette thèse a pour but d'améliorer les connaissances actuelles sur les processus gouvernant la nucléation et la croissance des minéraux lors d'épisodes de métamorphisme de contact et l'interaction dynamique existant entre nucléation et croissance. Pour cela, les analyses géochimiques (compositions chimiques en éléments majeurs et traces et composition isotopique), le traitement statistique des données spatiales et la modélisation numérique ont été combinés. Dans la première partie, cette thèse décrit la formation de porphyroblastes d'olivine métamorphique dans l'auréole de contact de l'Ubehebe Peak (USA). Il est montré que la succession généralement admise des réactions d'équilibre le long d'un chemin T-t ne peut pas expliquer les textures présentes dans les roches aujourd'hui. Cette thèse montre qu'il s'agirait plutôt d'une réaction métastable qui soit responsable de la formation des porphyroblastes d'olivine. En conséquence, la distribution spatiale des minéraux métamorphiques dans l'auréole de contact ne peut plus être interprétée comme le témoin de l'évolution temporelle d'un échantillon unique de roche. Les pics de température des échantillons de l'auréole de contact de l'Ubehebe Peak ont été déterminés grâce au géothermomètre calcite-dolomite. Celui-ci est basé sur l'échange du magnésium entre la calcite et la dolomite, qui est fonction de la température. Le but de la deuxième partie de cette thèse est d'expliquer la dispersion systématique de la composition en magnésium à différentes échelles, et ainsi d'améliorer l'interprétation des températures du métamorphisme enregistrées dans les carbonates. Des modèles numériques quantitatifs ont permis d'évaluer le rôle de différents processus sur la distribution du magnésium dans des cristaux de calcite individuels. Les résultats des modèles ont été comparés aux échantillons naturels. La composition chimique des grains, comme la composition isotopique ou la zonation minérale, n'est pas le seul témoin de l'histoire de la cristallisation. La distribution de la taille des cristaux (CSD) fournit des informations essentielles sur les interactions entre nucléation et croissance des minéraux. La CSD des pseudomorphes de brucite retrograde formés après le périclase dans le sud du massif Adamello (Italie) est présentée dans la troisième partie. La combinaison entre les données textorales en trois dimensions et les données géochimiques a permis d'évaluer les cinétiques de réaction et de contraindre les mécanismes conduisant à la formation du périclase. Cette réaction est présentée comme étant la conséquence de l'infiltration d'une quantité limitée d'une phase fluide à haute température. La composition de cette phase fluide est en grand déséquilibre avec le reste de la roche, ce qui permet des cinétiques de réactions très rapides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le ROTEM est un test de coagulation réalisable au près du malade qui permet d'objectiver la coagulopathie, de distinguer la contribution des différents éléments du système de coagulation et de cibler les produits procoagulants comme le plasma frais congelé (PFC), les plaquettes, le fibrinogène et les facteurs de coagulation purifiés ou les antifibrinolytiques. 3 des tests disponibles pour le ROTEM sont: EXTEM, INTEM, HEPTEM. Le premier test est stable sous hautes doses d'héparine alors que le deuxième est très sensible à sa présence. Dans le dernier test on rajoute de l'héparinase pour mettre en évidence l'éventuel effet résiduel de l'héparine en le comparant à l'INTEM. Idéalement, le ROTEM devrait être effectué avant la fin du bypass cardiopulmonaire (CEC), donc sous anticoagulation maximale pas héparine, afin de pouvoir administrer des produits pro¬coagulants dans les délais les plus brefs et ainsi limiter au maximum les pertes sanguines. En effet la commande et la préparation de certains produits procoagulants peut prendre plus d'une heure. Le but de cette étude est de valider l'utilisation du ROTEM en présence de hautes concentrations d'héparine. Il s'agit d'une étude observationnelle prospective sur 20 patients opérés électivement de pontages aorto-coronariens sous CEC. Méthode : l'analyse ROTEM a été réalisée avant l'administration d'héparine (TO), 10 minutes après l'administration d'héparine (Tl), à la fin de la CEC (T2) et 10 minutes après la neutralisation de l'anticoagulation avec la protamine (T3). L'état.d'héparinisation a été évalué par l'activité anti-Xa à T1,T2,T3. Résultats : Comparé à TO, la phase de polymérisation de la cascade de coagulation et l'interaction fibrine-plaquettes sont significativement détériorées par rapport à Tl pour les canaux EXTEM et HEPTEM. A T2 l'analyse EXTEM et INTEM sont comparables à celles de EXTEM et HEPTEM à T3. Conclusion: les hautes doses d'héparine utilisées induisent une coagulopathie qui reste stable durant toute la durée de la CEC et qui persiste même après la neutralisation de l'anticoagulation. Les mesures EXTEM et HEPTEM sont donc valides en présence de hautes concentrations d'héparine et peuvent être réalisés pendant la CEC avant l'administration de protamine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enjeu : L'incidence d'insuffisance rénale terminale augmente d'environ 5-6% par année dans nos régions. L'une des causes majeures d'insuffisance rénale est la néphropathie diabétique qui représente selon les pays entre 25 et 40% des néphropathies terminales. La progression de la néphropathie diabétique peut être ralentie de manière efficace par un bon contrôle du diabète et de l'hypertension artérielle et par le blocage du système rénine-angiotensine. Néanmoins, malgré l'application stricte de ces thérapies préventives, la néphropathie de bons nombres de patients diabétiques continue de progresser. Il est donc important de développer de nouvelles stratégies permettant de préserver la fonction rénale des patients diabétiques soit en améliorant le contrôle de la pression artérielle soit en diminuant la protéinurie. Contexte : Il existe un certain nombre d'évidences expérimentales que le blocage des récepteurs de l'endothéline pourrait avoir un effet positif sur le devenir de la néphropathie diabétique en diminuant de manière efficace la protéinurie même chez des animaux déjà traités efficacement avec un bloqueur du système rénine-angiotensine. Dans des études de phase 2 impliquant l'avosentan, un antagoniste des récepteurs de l'endothéline actuellement en cours de développement pour le traitement de la néphropathie diabétique, on a pu démontrer que cet antagoniste, prescrit à des doses oscillant entre 5 et 50 mg par jour per os, diminue la protéinurie d'environ 20-40% chez des patients déjà traités avec un IEC ou un antagoniste de l'angiotensine. Toutefois, une grande étude de phase III conduite avec ce médicament chez des patients diabétiques a du être interrompue précocement en raison de l'apparition d'oedèmes et d'une surcharge hydrosodée conduisant dans certains cas à une décompensation cardiaque aiguë. La rétention hydrosodée est un effet secondaire connu des antagonistes de l'endothéline déjà sur le marché. Toutefois, pour l'avosentan, on ne savait pas si des doses plus faibles du médicament avaient aussi un effet négative sur la balance hydrosodée. En outre, les mécanismes rénaux responsables de la rétention hydrosodée sont encore mal connus chez l'homme. C'est pourquoi, nous avons organisé et réalisé cette étude de pharmacologie clinique chez le volontaire sain posant 2 questions : 1) des doses faibles d'avosentan produisent-elles aussi une rétention hydrosodée chez l'homme ? et 2) quels sont les mécanismes rénaux pouvant expliquer la rétention hydrosodée ? Cette thèse est donc une étude clinique de phase I testant chez 23 volontaires sains les effets rénaux de différentes doses d'avosentan ou d'un placebo pour établir la courbe dose-réponse des effets rénaux de ce médicament. L'idée était également de définir quelle dose est sure et bien tolérée pour être utilisée dans une nouvelle étude de phase II. L'avosentan a été administré par voie orale une fois par jour pendant 8 jours à des doses de 0.5, 1.5, 5 et 50 mg. Les effets rénaux hémodynamiques et tubulaires ont été étudiés chez chaque sujet lors de la première administration (jour 1) et après une semaine de traitement (jour 8). Le médicament a induit une prise de poids dose-dépendante déjà présente à 5 mg et maximale à 50 mg (+ 0.8 kg au jour 8). Nous n'avons pas mesuré d'impact de l'avosentan sur l'hémodynamique rénale ni sur les électrolytes plasmatiques. En revanche, nous avons constaté une diminution dose-dépendante de la fraction d'excrétion de sodium (jusqu'à -8.7% avec avosentan 50 mg). Cette diminution était en rapport avec une augmentation dose-dépendante de la réabsorption proximale de sodium. Nous avons également constaté une baisse de la pression artérielle aux doses élevées et une hémodilution marquée par une baisse de l'hématocrite suggérant une rétention hydrique à la plus haute dose. Nos résultats suggèrent donc que l'avosentan induit une rétention sodée rénale dose-dépendante expliquée avant tout par une rétention du sodium au niveau du tubule proximal. Cet effet n'est pas observé à des doses plus basses que 5 mg chez le volontaire sain, suggérant que ce médicament devrait être évalué pour son activité réno-protectrice à des doses inférieures ou égales à 5 mg par jour. La raison pour laquelle les hautes doses produisent plus de rétention sodée est peut être liée à une perte de sélectivité pour les sous-types (A et B) de récepteurs à l'endothéline lorsque l'on administre des doses plus élevées que 5 mg. Perspectives : Les résultats de ce travail de thèse ont donc permis de caractériser les propriétés rénales d'un nouvel antagoniste des récepteurs de l'endothéline chez l'homme. Ces résultats ont aussi permis de guider le développement futur de ce médicament vers des doses plus faibles avec l'espoir de garder les effets bénéfiques sur la protéinurie tout en améliorant le profil de tolérance du médicament par l'utilisation de doses plus faibles. ANGLAIS The endothelin receptor antagonist avosentan may cause fluid overload at doses of 25 and 50 mg, but the actual mechanisms of this effect are unclear. We conducted a placebo-controlled study in 23 healthy subjects to assess the renal effects of avosentan and the dose dependency of these effects. Oral avosentan was administered once daily for 8 days at doses of 0.5, 1.5, 5, and 50 mg. The drug induced a dose-dependent median increase in body weight, most pronounced at 50 mg (0.8 kg on day 8). Avosentan did not affect renal hemodynamics or plasma electrolytes. A dose-dependent median reduction in the fractional renal excretion of sodium was found (up to 8.7% at avosentan 50 mg); this reduction was paralleled by a dose-related increase in proximal sodium reabsorption. It is suggested that avosentan dose-dependently induces sodium retention by the kidney, mainly through proximal tubular effects. The potential clinical benefits of avosentan should therefore be investigated at doses of ≤ 5 mg.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Landscapes are continuously changing. Natural forces of change such as heavy rainfall and fires can exert lasting influences on their physical form. However, changes related to human activities have often shaped landscapes more distinctly. In Western Europe, especially modern agricultural practices and the expanse of overbuilt land have left their marks in the landscapes since the middle of the 20th century. In the recent years men realised that mare and more changes that were formerly attributed to natural forces might indirectly be the result of their own action. Perhaps the most striking landscape change indirectly driven by human activity we can witness in these days is the large withdrawal of Alpine glaciers. Together with the landscapes also habitats of animal and plant species have undergone vast and sometimes rapid changes that have been hold responsible for the ongoing loss of biodiversity. Thereby, still little knowledge is available about probable effects of the rate of landscape change on species persistence and disappearance. Therefore, the development and speed of land use/land cover in the Swiss communes between the 1950s and 1990s were reconstructed using 10 parameters from agriculture and housing censuses, and were further correlated with changes in butterfly species occurrences. Cluster analyses were used to detect spatial patterns of change on broad spatial scales. Thereby, clusters of communes showing similar changes or transformation rates were identified for single decades and put into a temporally dynamic sequence. The obtained picture on the changes showed a prevalent replacement of non-intensive agriculture by intensive practices, a strong spreading of urban communes around city centres, and transitions towards larger farm sizes in the mountainous areas. Increasing transformation rates toward more intensive agricultural managements were especially found until the 1970s, whereas afterwards the trends were commonly negative. However, transformation rates representing the development of residential buildings showed positive courses at any time. The analyses concerning the butterfly species showed that grassland species reacted sensitively to the density of livestock in the communes. This might indicate the augmented use of dry grasslands as cattle pastures that show altered plant species compositions. Furthermore, these species also decreased in communes where farms with an agricultural area >5ha have disappeared. The species of the wetland habitats were favoured in communes with smaller fractions of agricultural areas and lower densities of large farms (>10ha) but did not show any correlation to transformation rates. It was concluded from these analyses that transformation rates might influence species disappearance to a certain extent but that states of the environmental predictors might generally outweigh the importance of the corresponding rates. Information on the current distribution of species is evident for nature conservation. Planning authorities that define priority areas for species protection or examine and authorise construction projects need to know about the spatial distribution of species. Hence, models that simulate the potential spatial distribution of species have become important decision tools. The underlying statistical analyses such as the widely used generalised linear models (GLM) often rely on binary species presence-absence data. However, often only species presence data have been colleted, especially for vagrant, rare or cryptic species such as butterflies or reptiles. Modellers have thus introduced randomly selected absence data to design distribution models. Yet, selecting false absence data might bias the model results. Therefore, we investigated several strategies to select more reliable absence data to model the distribution of butterfly species based on historical distribution data. The results showed that better models were obtained when historical data from longer time periods were considered. Furthermore, model performance was additionally increased when long-term data of species that show similar habitat requirements as the modelled species were used. This successful methodological approach was further applied to assess consequences of future landscape changes on the occurrence of butterfly species inhabiting dry grasslands or wetlands. These habitat types have been subjected to strong deterioration in the recent decades, what makes their protection a future mission. Four spatially explicit scenarios that described (i) ongoing land use changes as observed between 1985 and 1997, (ii) liberalised agricultural markets, and (iii) slightly and (iv) strongly lowered agricultural production provided probable directions of landscape change. Current species-environment relationships were derived from a statistical model and used to predict future occurrence probabilities in six major biogeographical regions in Switzerland, comprising the Jura Mountains, the Plateau, the Northern and Southern Alps, as well as the Western and Eastern Central Alps. The main results were that dry grasslands species profited from lowered agricultural production, whereas overgrowth of open areas in the liberalisation scenario might impair species occurrence. The wetland species mostly responded with decreases in their occurrence probabilities in the scenarios, due to a loss of their preferred habitat. Further analyses about factors currently influencing species occurrences confirmed anthropogenic causes such as urbanisation, abandonment of open land, and agricultural intensification. Hence, landscape planning should pay more attention to these forces in areas currently inhabited by these butterfly species to enable sustainable species persistence. In this thesis historical data were intensively used to reconstruct past developments and to make them useful for current investigations. Yet, the availability of historical data and the analyses on broader spatial scales has often limited the explanatory power of the conducted analyses. Meaningful descriptors of former habitat characteristics and abundant species distribution data are generally sparse, especially for fine scale analyses. However, this situation can be ameliorated by broadening the extent of the study site and the used grain size, as was done in this thesis by considering the whole of Switzerland with its communes. Nevertheless, current monitoring projects and data recording techniques are promising data sources that might allow more detailed analyses about effects of long-term species reactions on landscape changes in the near future. This work, however, also showed the value of historical species distribution data as for example their potential to locate still unknown species occurrences. The results might therefore contribute to further research activities that investigate current and future species distributions considering the immense richness of historical distribution data. Résumé Les paysages changent continuellement. Des farces naturelles comme des pluies violentes ou des feux peuvent avoir une influence durable sur la forme du paysage. Cependant, les changements attribués aux activités humaines ont souvent modelé les paysages plus profondément. Depuis les années 1950 surtout, les pratiques agricoles modernes ou l'expansion des surfaces d'habitat et d'infrastructure ont caractérisé le développement du paysage en Europe de l'Ouest. Ces dernières années, l'homme a commencé à réaliser que beaucoup de changements «naturels » pourraient indirectement résulter de ses propres activités. Le changement de paysage le plus apparent dont nous sommes témoins de nos jours est probablement l'immense retraite des glaciers alpins. Avec les paysages, les habitats des animaux et des plantes ont aussi été exposés à des changements vastes et quelquefois rapides, tenus pour coresponsable de la continuelle diminution de la biodiversité. Cependant, nous savons peu des effets probables de la rapidité des changements du paysage sur la persistance et la disparition des espèces. Le développement et la rapidité du changement de l'utilisation et de la couverture du sol dans les communes suisses entre les années 50 et 90 ont donc été reconstruits au moyen de 10 variables issues des recensements agricoles et résidentiels et ont été corrélés avec des changements de présence des papillons diurnes. Des analyses de groupes (Cluster analyses) ont été utilisées pour détecter des arrangements spatiaux de changements à l'échelle de la Suisse. Des communes avec des changements ou rapidités comparables ont été délimitées pour des décennies séparées et ont été placées en séquence temporelle, en rendrent une certaine dynamique du changement. Les résultats ont montré un remplacement répandu d'une agriculture extensive des pratiques intensives, une forte expansion des faubourgs urbains autour des grandes cités et des transitions vers de plus grandes surfaces d'exploitation dans les Alpes. Dans le cas des exploitations agricoles, des taux de changement croissants ont été observés jusqu'aux années 70, alors que la tendance a généralement été inversée dans les années suivantes. Par contre, la vitesse de construction des nouvelles maisons a montré des courbes positives pendant les 50 années. Les analyses sur la réaction des papillons diurnes ont montré que les espèces des prairies sèches supportaient une grande densité de bétail. Il est possible que dans ces communes beaucoup des prairies sèches aient été fertilisées et utilisées comme pâturages, qui ont une autre composition floristique. De plus, les espèces ont diminué dans les communes caractérisées par une rapide perte des fermes avec une surface cultivable supérieure à 5 ha. Les espèces des marais ont été favorisées dans des communes avec peu de surface cultivable et peu de grandes fermes, mais n'ont pas réagi aux taux de changement. Il en a donc été conclu que la rapidité des changements pourrait expliquer les disparitions d'espèces dans certains cas, mais que les variables prédictives qui expriment des états pourraient être des descripteurs plus importants. Des informations sur la distribution récente des espèces sont importantes par rapport aux mesures pour la conservation de la nature. Pour des autorités occupées à définir des zones de protection prioritaires ou à autoriser des projets de construction, ces informations sont indispensables. Les modèles de distribution spatiale d'espèces sont donc devenus des moyens de décision importants. Les méthodes statistiques courantes comme les modèles linéaires généralisés (GLM) demandent des données de présence et d'absence des espèces. Cependant, souvent seules les données de présence sont disponibles, surtout pour les animaux migrants, rares ou cryptiques comme des papillons ou des reptiles. C'est pourquoi certains modélisateurs ont choisi des absences au hasard, avec le risque d'influencer le résultat en choisissant des fausses absences. Nous avons établi plusieurs stratégies, basées sur des données de distribution historique des papillons diurnes, pour sélectionner des absences plus fiables. Les résultats ont démontré que de meilleurs modèles pouvaient être obtenus lorsque les données proviennent des périodes de temps plus longues. En plus, la performance des modèles a pu être augmentée en considérant des données de distribution à long terme d'espèces qui occupent des habitats similaires à ceux de l'espèce cible. Vu le succès de cette stratégie, elle a été utilisée pour évaluer les effets potentiels des changements de paysage futurs sur la distribution des papillons des prairies sèches et marais, deux habitats qui ont souffert de graves détériorations. Quatre scénarios spatialement explicites, décrivant (i) l'extrapolation des changements de l'utilisation de sol tels qu'observés entre 1985 et 1997, (ii) la libéralisation des marchés agricoles, et une production agricole (iii) légèrement amoindrie et (iv) fortement diminuée, ont été utilisés pour générer des directions de changement probables. Les relations actuelles entre la distribution des espèces et l'environnement ont été déterminées par le biais des modèles statistiques et ont été utilisées pour calculer des probabilités de présence selon les scénarios dans six régions biogéographiques majeures de la Suisse, comportant le Jura, le Plateau, les Alpes du Nord, du Sud, centrales orientales et centrales occidentales. Les résultats principaux ont montré que les espèces des prairies sèches pourraient profiter d'une diminution de la production agricole, mais qu'elles pourraient aussi disparaître à cause de l'embroussaillement des terres ouvertes dû à la libéralisation des marchés agricoles. La probabilité de présence des espèces de marais a décrû à cause d'une perte générale des habitats favorables. De plus, les analyses ont confirmé que des causes humaines comme l'urbanisation, l'abandon des terres ouvertes et l'intensification de l'agriculture affectent actuellement ces espèces. Ainsi ces forces devraient être mieux prises en compte lors de planifications paysagères, pour que ces papillons diurnes puissent survivre dans leurs habitats actuels. Dans ce travail de thèse, des données historiques ont été intensivement utilisées pour reconstruire des développements anciens et pour les rendre utiles à des recherches contemporaines. Cependant, la disponibilité des données historiques et les analyses à grande échelle ont souvent limité le pouvoir explicatif des analyses. Des descripteurs pertinents pour caractériser les habitats anciens et des données suffisantes sur la distribution des espèces sont généralement rares, spécialement pour des analyses à des échelles fores. Cette situation peut être améliorée en augmentant l'étendue du site d'étude et la résolution, comme il a été fait dans cette thèse en considérant toute la Suisse avec ses communes. Cependant, les récents projets de surveillance et les techniques de collecte de données sont des sources prometteuses, qui pourraient permettre des analyses plus détaillés sur les réactions à long terme des espèces aux changements de paysage dans le futur. Ce travail a aussi montré la valeur des anciennes données de distribution, par exemple leur potentiel pour aider à localiser des' présences d'espèces encore inconnues. Les résultats peuvent contribuer à des activités de recherche à venir, qui étudieraient les distributions récentes ou futures d'espèces en considérant l'immense richesse des données de distribution historiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Le diabète de type 1 se définit comme un désordre métabolique d'origine auto-immune qui aboutit à la destruction progressive et sélective de la cellule ß-pancréatique sécrétrice d'insuline. Cette maladie représente 10 % des cas de diabète enregistrés dans la population mondiale, et touche les jeunes de moins de 20 ans. Le traitement médical par insulinothérapie corrige le manque d'hormone mais ne prévient pas les nombreuses complications telles que les atteintes cardiaques, neurologiques, rénales, rétiniennes, et les amputations que la maladie provoque. Le remplacement de la cellule ß par transplantation d'îlots de Langerhans est une alternative prometteuse au traitement médical du diabète de type 1. Cependant la greffe d'îlots est encore un traitement expérimental et ne permet pas un contrôle efficace de la glycémie au long terme chez les patients transplantés, et les raisons de cet échec restent mal comprises. L'obstacle immédiat qui se pose est la purification d'un nombre suffisant d'îlots viables et la perte massive de ces îlots dans les premières heures suite à la greffe. Cette tendance presque systématique de la perte fonctionnelle du greffon immédiatement après la transplantation est connue sous le terme de « primary graft non-function » (PNF). En effet, la procédure d'isolement des îlots provoque la destruction des composantes cellulaires et non cellulaires du tissu pancréatique qui jouent un rôle déterminant dans le processus de survie de l'îlot. De plus, la transplantation elle-même expose les cellules à différents stress, notamment le stress par les cytokines inflammatoires qui encourage la mort cellulaire par apoptose et provoque par la suite le rejet de la greffe. L'ensemble de ces mécanismes aboutit a une perte de la masse d'îlot estimée a plus de 60%. Dans ce contexte, nous nous sommes intéressés à définir les voies majeures de stress qui régissent cette perte massive d'îlot par apoptose lors du processus d'isolement et suite à l'exposition immédiate aux cytokines. L'ensemble des résultats obtenus indique que plusieurs voies de signalisation intracellulaire sont recrutées qui s'activent de manière maximale très tôt lors des premières phases de l'isolement. La mise en culture des îlots deux jours permet aux voies activées de revenir aux taux de base. De ce fait nous proposons une stratégie dite de protection qui doit être 1) initiée aussitôt que possible lors de l'isolement des îlots pancréatiques, 2) devrait probablement bloquer l'activation de ces différentes voies de stress mis en évidence lors de notre étude et 3) devrait inclure la mise en culture des îlots purifiés deux jours après l'isolement et avant la transplantation. RESUME LARGE PUBLIC Le diabète est une maladie qui entraîne un taux anormalement élevé de sucre (glucose) dans le sang du à une insuffisance du pancréas endocrine à produire de l'insuline, une hormone qui régule la glycémie (taux de glucose dans le sang). On distingue deux types majeurs de diabètes; le diabète de type 1 ou juvénile ou encore appelé diabète maigre qui se manifeste souvent pendant l'enfance et qui se traduit par une déficience absolue en insuline. Le diabète de type 2 ou diabète gras est le plus fréquent, et touche les sujets de plus de 40 ans qui souffrent d'obésité et qui se traduit par une dysfonction de la cellule ß avec une incapacité à réguler la glycémie malgré la production d'insuline. Dans le diabète de type 1, la destruction de la cellule ß est programmée (apoptose) et est majoritairement provoquée par des médiateurs inflammatoires appelés cytokines qui sont produites localement par des cellules inflammatoires du système immunitaire qui envahissent la cellule ß-pancréatiques. Les cytokines activent différentes voies de signalisation parmi lesquelles on distingue celles des Mitogen-Activated Protein Kinase (MAPKs) composées de trois familles de MAPKs: ERK1/2, p38, et JNK, et la voie NF-κB. Le traitement médical par injections quotidiennes d'insuline permet de contrôler la glycémie mais ne prévient pas les nombreuses complications secondaires liées à cette maladie. La greffe d'îlots de Langerhans est une alternative possible au traitement médical, considérée avantageuse comparée a la greffe du pancréas entier. En effet l'embolisation d'îlots dans le foie par injection intraportale constitue une intervention simple sans complications majeures. Néanmoins la technique de préparation d'îlots altère la fonction endocrine et cause la perte massive d'îlots pancréatiques. De plus, la transplantation elle-même expose la cellule ß à différents stress, notamment le stress par les cytokines inflammatoires qui provoque le rejet de greffon cellulaire. Dans la perspective d'augmenter les rendements des îlots purifiés, nous nous sommes intéressés à définir les voies majeures de stress qui régissent cette perte massive d'îlot lors du processus d'isolement et suite à l'exposition immédiate aux cytokines après transplantation. L'ensemble de ces résultats indique que le stress induit lors de l'isolement des îlots et celui des cytokines recrute différentes voies de signalisation intracellulaire (JNK, p38 et NF-κB) qui s'additionnent entre-elles pour altérer la fonction et la viabilité de l'îlot. De ce fait une stratégie doit être mise en place pour bloquer toute action synergique entre ces différentes voies activées pour améliorer la viabilité et la fonction de la cellule ß lors du greffon cellulaire. SUMMARY Type 1 diabetes mellitus (T1DM) is an autoimmune disease characterized by the progressive and selective destruction of the pancreatic ß-cells that secrete insulin, leading to absolute insulin deficiency. T1DM accounts for about 10% of all diabetes cases, affecting persons younger than 20 years of age. Medical treatment using daily exogenous insulin injection corrects hormone deficiency but does not prevent devastating complications such as heart attack, neuropathy, kidney failure, blindness, and amputation caused by the disease. Pancreatic islet transplantation (PIT) is one strategy that holds promise to cure patients with T1DM, but purified pancreatic islet grafts have failed to maintain long-term glucose homeostasis in human recipients, the reasons for this failure being still poorly understood. There is however a more immediate problem with islet grafting that is dependent upon poor islet recovery from donors and early islet loss following the first hours of grafting. This tendency of islet grafts to fail to function within a short period after transplantation is termed primary graft non-function (PNF). Indeed, the islet isolation procedure itself destroys cellular and non-cellular components of the pancreas that may play a role in supporting islet survival. Further, islet transplantation exposes cells to a variety of stressful stimuli, notably pro-inflammatory cytokines that encourage ß-cell death by apoptosis and lead to early graft failure. Altogether these mechanisms lead to an estimated loss of 60% of the total islet mass. Here, we have mapped the major intracellular stress signaling pathways that may mediate human islet loss by apoptosis during isolation and following cytokine attack. We found that several stress pathways are maximally activated from the earliest stages of the isolation procedure. Culturing islet for two days allow for the activated pathways to return to basal levels. We propose that protective strategies should 1) be initiated as early as possible during isolation of the islets, 2) should probably target the activated stress pathways that we uncovered during our studies and 3) should include culturing islets for two days post-isolation and prior transplantation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : L'équipe mobile de soins palliatifs intra hospitalière (EMSP) du Centre Hospitalier Universitaire Vaudois (CHUV) a été mise en place en 1996. Il s'agit d'une des premières équipes interdisciplinaire de consultants mise à disposition d'un hôpital tertiaire. Le CHUV est l'hôpital de proximité de la ville de Lausanne (850 lits) mais aussi un hôpital de référence pour le reste du canton. En 2007, il y a eu 38'359 patients hospitalisés au CHUV. Les facteurs d'évaluation du taux d'utilisation d'une équipe mobile de soins palliatifs consultantes sont variés et complexes. Plusieurs méthodes sont décrites dans la littérature pour tenter de répondre à cette problématique. Avant de pouvoir évaluer l'utilisation de notre équipe mobile consultante de soins palliatifs intra hospitalière, il nous est apparu nécessaire de mieux décrire et définir la population qui meurt dans notre institution. McNamara et collègues ont proposé des critères qui classifient une population palliative comme « minimale », « intermédiaire » ou « maximale ». L'objectif de cette étude est de déterminer le taux de patients décédés au CHUV sur une période de 4 mois (Γ1 février au 31 mai 2007) suivie par notre EMSP en utilisant la méthode de classification «minimal » et « maximal ». Méthode : les archives médicales du CHUV ont été analysées pour chaque patient adulte décédé pendant la période sélectionnée. Les populations « maximal » et « minimal » de ces patients ont été ensuite déterminées selon des critères basés sur les codes diagnostiques figurants sur les certificats de décès. De ces deux populations, nous avons identifié à partir de notre base de données, les patients qui ont été suivie par notre EMSP. Le CHUV utilise les mêmes codes diagnostiques (International Classification of Disease, ICD) que ceux utilisés dans la classification de McNamara. Une recherche pilote effectuée dans les archives médicales du CHUV manuellement en analysant en profondeur l'ensemble du dossier médical a révélé que la classification de la population « minimal » pouvait être biaisée notamment en raison d'une confusion entre la cause directe du décès (complication d'une maladie) et la maladie de base. Nous avons estimé le pourcentage d'erreur de codification en analysé un échantillon randomisé de patients qui remplissait les critères « minimal ». Résultats : sur un total de 294 décès, 263 (89%) remplissaient initialement les critères « maximal » et 83 (28%) les critères «minimal», l'analyse de l'échantillon randomisé de 56 dossiers de patients sur les 180 qui ne remplissaient pas les critères « minimal » ont révélé que 21 (38%) auraient dus être inclus dans la population « minimal ». L'EMSP a vu 67/263 (25.5%) de la population palliative « maximal » et 56/151 (37.1%) de la population palliative « minimal ». Conclusion : cette étude souligne l'utilité de la méthode proposée par McNamara pour déterminer la population de patients palliatifs. Cependant, notre travail illustre aussi une limite importante de l'estimation de la population « minima » en lien avec l'imprécision des causes de décès figurant sur les certificats de décès de notre institution. Nos résultats mettent aussi en lumière que l'EMSP de notre institution est clairement sous- utilisée. Nous prévoyons une étude prospective de plus large envergure utilisant la même méthodologie afin d'approfondir les résultats de cette étude pilote.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Depuis 2005, le « Test FIFA » est utilisé chez les arbitres de football, comme critère de sélection pour monter dans les échelons de l'arbitrage et chaque arbitre base son entraînement dans cet objectif. Ce test a été développé grâce aux nombreux travaux scientifiques, ayant utilisé l'analyse vidéo, afin de quantifier les activités de match des arbitres et analyser leur performance en cours de match. Objectifs : Le but de ce travail a été d'évaluer la performance de l'arbitre, lors d'un match de football, au moyen d'un accéléromètre en raison de sa facilité d'utilisation et en particulier d'évaluer si au cours du match, il existe une éventuelle diminution de la capacité de performance engendrée par la fatigue. Enfin, à la lumière des résultats, nous avons pu discuter du bien fondé du «test par intervalle proposé par la FIFA» comme moyen d'estimation de la capacité physique d'un arbitre. Méthode : Il s'agit d'une étude prospective basée sur une analyse descriptive. Les données ont été récoltées dans des stades de football suisses ≥1ère Ligue, du 01.12.2011 au 01.12.2012. Le groupe étudié était composé de 5 arbitres de football de sexe masculin, dont deux officiant en 1ère Ligue et faisant partie des talents de l'Association Cantonale Vaudoise de Football (ACVF) et trois en Super League et Challenge League. Les 5 arbitres ont été équipés d'un iPhone 3GS®, muni d'une application, capable d'enregistrer les déplacements sur le terrain (arrêt, marche et course). Le traitement des données a été effectué par un programme Matlab®, élaboré par le Laboratoire des Mesures d'Analyse du Mouvement (LMAM) de l'EPFL, tout comme l'application en question. Pour ce travail ont été considérées les phases et les fréquences d'arrêt, de marche et de course tout au long de l'évolution de la partie. Résultats : Durant les 90 minutes du match, la répartition se fait de la manière suivante : 13,74% du temps total où l'accéléromètre ne mesure aucune activité, 33,70% concernent une activité de course alors que le reste, 52,48% est de la marche. Avec l'avancement dans le match, il est constaté une augmentation des phases d'arrêt et une diminution du temps de course. Une intensité d'effort plus importante est observée lors des 15 premières minutes du match (environ  41,7% de course), alors qu'en fin de la partie, il y a une alternance de marche et de course avec des efforts de plus en plus brefs. La détermination de la médiane de durée des différents efforts a montré qu'un épisode de marche ou de course étaient de 5-6 secondes. De plus, les épisodes de marche ou de course étaient rarement >20 secondes. Discussion : Les résultats montrent que l'accéléromètre est un système de mesure facile d'utilisation, permettant un gain de temps dans l'analyse des données pour évaluer la performance sportive. Les principaux résultats de cette étude, ont mis en évidence une diminution de l'intensité des activités physiques de l'arbitre avec l'avancement du match, résultant soit de sa propre fatigue, soit de celle des joueurs dictant le rythme du jeu. Cette diminution se traduit par des déplacements de plus en plus brefs au fil du temps. La mesure de médiane du temps de course et de marche (5-6 sec) correspond à une activité aérobie pour la marche et anaérobie alactique pour la course. Par conséquent, le « test par intervalle » de la FIFA actuel ne nous semble pas adéquat en raison de sa filière énergétique de type anaérobique lactique. Conclusion : Cette étude pilote apporte un nouveau type d'instrumentation efficace et simple, jamais employé auparavant dans l'analyse des activités de match des arbitres de football. Il permet d'explorer des mouvements avec précision au fil du match et apporte un nouvel aspect sur la quantification de performance des arbitres non exploré jusqu'ici. Après analyse de l'ensemble des paramètres, il semble que le test FIFA ne soit pas adapté à la performance exigée par l'arbitrage.