373 resultados para Mesures individualisées


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement de méthodes de mesure de la qualité des soins et les actions visant à son amélioration font partie intégrante de la pratique quotidienne. Les infections nosocomiales représentent un Indicateur Incontournable et leur prévention apparaît comme un champ d'action privilégié du concept de l'amélioration continue de la qualité des soins. Dans ce domaine, de nombreuses mesures ont fait l'objet d'études répondant à des critères méthodologiques de qualité élevée, dont les résultats sont hautement significatifs au plan statistique. Les interventions complexes concernant par exemple l'ensemble des patients d'un service ou d'une institution ne permettent que difficilement de satisfaire à ces exigences méthodologiques. Sous certaines conditions, elle peuvent cependant avoir un impact réel et parfois durable sur la qualité des soins. A titre d'exemple, nous discutons deux interventions complexes dans le domaine de la prévention des infections nosocomiales, résultant de démarches visant à une amélioration globale et durable de la qualité des soins. L'utilisation d'outils épidémiologiques adaptés permet également d'estimer le bénéfice des Interventions en milieu hospitalier conformément à ce que la communauté scientifique reconnaît comme étant une recherche clinique de qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le monitoring de la problématique du cannabis en Suisse constitue un ensemble de travaux qui permettent le suivi de la situation au niveau national et qui sont mis en oeuvre par un consortium d'institutions de recherche. Ce monitoring comprend l'étude présentée dans ce rapport, l'étude sentinelle. Celle-ci s'intéresse à l'évolution de la situation en matière de cannabis ainsi qu'à la gestion de cette situation au niveau local. Il s'agit de répondre aux questions suivantes : - quelle est la situation en matière de consommation de cannabis et de marché et quelle est son évolution ? - quels sont les principaux problèmes rencontrés sur le terrain ? - quelles sont les mesures et interventions qui ont été développées dans ce domaine ? Pour y répondre, on a choisi de suivre la situation dans quatre cantons suisses dits "sentinelle" (St-Gall, Tessin, Vaud, Zurich). Les critères de choix de ces cantons font appel à leur taille, au rapport ville/campagne et à la présence de frontière avec des états voisins, à la langue, au type de politique drogue pratiqué. Dans chaque canton on a constitué des panels d'experts formés par des profes-sionnels de terrain dans trois domaines différents (santé et social, école, police et justice). Leurs observations ainsi que les données cantonales disponibles sont récoltées et discutées lors d'un workshop et analysées sur plusieurs années. Le présent rapport fait état des résultats des quatre workshops de suivi (2005, 2006, 2008, 2009). [Résumé, p. 5]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les précipitations moyennes et les nombres de jours de pluie par saison et par an ont été analysés pour 151 séries de mesures pluviométriques en Suisse de 1900 à 2009. Ces analyses révèlent que les précipitations moyennes ont augmenté durant le 20ème siècle pour toutes les saisons, sauf en été. Cette hausse est la plus marquée en hiver, surtout dans le Nord des Alpes et en Valais. Les nombres de jours de pluie ont également augmenté en hiver, mais moins fortement que les précipitations moyennes, alors qu'ils tendent à diminuer très légèrement durant les autres saisons. On en déduit que l'intensité moyenne des précipitations s'est accrue en Suisse durant le 20ème siècle en toutes saisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Rôle des paramètres sociopolitiques et des connaissances dans la gestion des risques hydrologiques¦La recherche analyse (1) la mise en oeuvre de la gestion des risques hydrologiques et (2) les connaissances dont disposent les acteurs sur ces derniers, ainsi que (3) les interdépendances entre ces deux volets. Au total, trois études de cas ont été réalisées dont deux études régionales (ville de Berne, commune de Saillon) et une étude sur un acteur spécifique (les corporations de digues dans le canton de Berne). Les données empiriques ont été obtenues par des entretiens oraux semi-directifs et des enquêtes écrites.¦La gestion des risques hydrologiques est fortement influencée par des paramètres sociopolitiques, c'est-à-dire par les intérêts et les objectifs des acteurs, par les rapports de force entre ceux-ci ainsi que par les processus de négociation et de décision. Dans la pratique, les démarches de gestion se restreignent toutefois majoritairement aux aspects physiques, techniques et administratifs des risques hydrologiques. La dimension sociopolitique est ainsi négligée, ce qui est source de conflits qui ralentissent considérablement la planification de la protection contre les crues, voire la bloquent même complètement. La gestion des risques hydrologiques est en outre largement focalisée sur la réduction des aléas. Lés débats sur la vulnérabilité sont nettement plus rares bien qu'ils soient indispensables lorsqu'il s'agit de traiter les risques de façon holistique.¦Etant donné l'importance de la dimension sociopolitique et de la vulnérabilité, il est nécessaire que les démarches prévues dans la gestion des risques hydrologiques soient reconsidérées et adaptées. De plus, une meilleure intégration de tous les acteurs concernés est primordiale afin de trouver des solutions qui soient acceptables pour une majorité. Pour l'instant, le recours à des instruments de négociation est insuffisant.¦Les connaissances des risques hydrologiques et de leur gestion peuvent être classées en quatre répertoires (connaissances du système, de l'événement, de l'intervention et connaissances sociopolitiques) qui influent tous sur la réduction des risques. Parmi les facteurs les plus importants susceptibles de déclencher des transformations se trouvent l'occurrence de crues, la réalisation d'études (portant sur les aléas, la vulnérabilité, les mesures, etc.), l'échange de connaissances entre les acteurs, ainsi que la recherche de solutions lors de la gestion.¦Les caractéristiques des connaissances varient considérablement selon les acteurs. L'appartenance à un groupe donné ne permet toutefois pas à elle seule de déterminer l'état des connaissances : tous les acteurs peuvent avoir des connaissances pertinentes pour la gestion des risques. Les différences entre les acteurs rendent pourtant la communication compliquée. Ce problème pourrait être atténué par des médiateurs qui assureraient un travail de traduction. Dans la pratique, de telles instances manquent généralement.¦La gestion et les connaissances des risques hydrologiques sont fortement interdépendantes. L'état et les caractéristiques des connaissances déterminent directement la qualité de la protection contre les crues. Des lacunes ou des imprécisions peuvent donc entraîner une gestion non adaptée aux risques présents. Afin d'éviter une telle situation, il est important que les connaissances sur les risques hydrologiques et sur les possibilités d'y faire face soient régulièrement remises à jour. Ne devant pas se restreindre à l'expérience de crues passées, il est impératif qu'elles contiennent aussi des réflexions prospectives et des scénarios novateurs.¦La gestion n'est pas seulement demandeuse en connaissances, elle est également susceptible d'en générer de nouvelles et d'élargir les connaissances existantes. Il convient donc de considérer la création et le transfert de connaissances comme une tâche centrale de la gestion des risques.¦Zusammenfassung Die Rolle der soziopolitischen Parameter und des Wissens im Umgang mit hydrologischen Risiken¦Die Arbeit untersucht drei Themenbereiche: (1) den soziopolitischen Umgang mit hydrologischen Risiken, (2) das Wissen, über das die Akteure bezüglich der Hochwasserrisiken verfügen sowie (3) die Wechselwirkungen zwischen diesen beiden Themenfeldern. Insgesamt wurden drei Fallstudien durchgeführt, darunter zwei regionale Studien (Stadt Bern, Gemeinde Saillon) und eine Untersuchung eines spezifischen Akteurs (Schwellenkorporationen im Kanton Bern). Die empirischen Daten wurden anhand von halbstandardisierten Interviews und schriftlichen Umfragen erhoben.¦Das Management hydrologischer Risiken ist stark von soziopolitischen Parametern beeinflusst, d.h. von Interessen und Zielvorstellungen der Akteure, von Machtverhältnissen und von Verhandlungs- und Entscheidungsprozessen. Die in der Praxis vorgesehenen Schritte zur Reduktion der Hochwasserrisiken beschränken sich jedoch meist auf die physischen, administrativen und technischen Aspekte der Risiken. Die Vernachlässigung ihrer soziopolitischen Dimension führt zu Konflikten, welche die Planung von Hochwasserschutzprojekten deutlich verlangsamen oder gar blockieren. Des Weiteren konzentriert sich das Risikomanagement im Wesentlichen auf die Reduktion der Gefahren. Gesellschaftliche Debatten zur Vulnerabilität sind deutlich seltener, obschon sie für einen umfassenden Umgang mit Risiken unabdingbar sind.¦Angesichts der Bedeutung der soziopolitischen Dimension und der Vulnerabilität ist es notwendig, dass die Vorgehensweise im Risikomanagement überdacht und angepasst wird. Zudem ist eine bessere Integration aller betroffener Akteure unablässig, um mehrheitsfähige Lösungen zu finden. Zur Zeit ist der Rückgriff auf entsprechende Instrumente ungenügend.¦Das Wissen über hydrologische Risiken und deren Management kann in vier Repertoires eingeteilt werden (Systemwissen, Ereigniswissen, Interventionswissen, soziopolitisches Wissen), die alle bei der Reduktion von Risiken bedeutsam sind. Zu den wichtigsten Faktoren, die Wissenstransformationen auslösen, gehören Hochwasserereignisse, die Durchführung von Studien (zu Gefahren, zur Vulnerabilität, zu Massnahmen usw.), der Wissensaustausch zwischen Akteuren und die Suche nach Lösungen während des Risikomanagements.¦Die Merkmale der Wissensformen unterschieden sich stark zwischen den verschiedenen Akteuren. Die Zugehörigkeit eines Akteurs zu einer bestimmten Gruppe ist jedoch kein ausreichendes Kriterium, um dessen Wissensstand zu bestimmen: Alle Akteure können über Wissen verfügen, das für den Umgang mit Risiken relevant ist. Die Unterschiede zwischen den Akteuren gestalten die Kommunikation allerdings schwierig. Das Problem liesse sich entschärfen, indem Mediatoren eingesetzt würden, die als Übersetzer und Vermittler agierten. In der Praxis fehlen solche Instanzen weitgehend.¦Zwischen dem Umgang mit hydrologischen Risken und dem Wissen bestehen enge Wechselwirkungen. Der Zustand und die Eigenschaften der Wissensformen bestimmen direkt die Qualität des Hochwasserschutzes. Lückenhaftes und unpräzises Wissen kann demnach zu einem Risikomanagement führen, das den tatsächlichen Gegebenheiten nicht angepasst ist. Um eine solche Situation zu verhindern, muss das Wissen über Risiken und Hochwasserschutz regelmässig aktualisiert werden. Dabei darf es sich nicht auf die Erfahrung vergangener Hochwasser beschränken, sondern hat auch vorausschauende Überlegungen und neuartige Szenarien einzubeziehen.¦Das Risikomanagement benötigt nicht nur Wissen, es trägt auch dazu bei, neues Wissen zu t generieren und bestehendes zu erweitern. Die Erarbeitung und der Transfer von Wissen sind deshalb als zentrale Aufgaben des Risikomanagements zu betrachten.¦Abstract¦The role of socio-political parameters and of knowledge in the management of hydrological risks¦The purpose of the thesis is to analyse (1) the socio-political management of hydrological risks, (2) the knowledge about hydrological risks, and (3) the interaction between risk management and knowledge. Three case studies were carried out, two at a regional level (city of Berne, village of Saillon) and one about a specific stakeholder (the dyke corporations in the canton of Berne). Empirical data were collected by the means of semi-structured interviews and surveys.¦The management of hydrological risks is highly influenced by socio-political issues, i.e. by interests and goals of stakeholders, by the balance of power between stakeholders, as well as by negotiations and decision-making processes. In practice, however, risk management is mainly constrained by physical, technical, and administrative aspects. The neglect of the socio-political dimension may thus be the source of conflicts which significantly delay the planning and implementation of flood protection measures, or even stop them. Furthermore, risk management mostly concentrates on hazard reduction. Discussions on vulnerability issues are less frequent although they are fundamental for treating risks in a holistic manner.¦Because of the importance of the social-political dimension and of vulnerability issues, it is necessary that the common approach of managing hydrological risks is reconsidered and adapted. Moreover, the integration of all stakeholders that are concerned with hydrological risks is essential for finding solutions which are supported by a majority. For instance, the application of appropriate negotiation instruments is insufficient.¦Knowledge about hydrological risks and their management can be classified into four categories (system knowledge, event knowledge, intervention knowledge, socio-political knowledge) which are all influencing the reduction of risks. Among the most important factors that are likely to trigger knowledge transformations, one can point out flood events, studies about risk parameters (hazards, vulnerability, protection measures, etc.), knowledge exchange between stakeholders, and the search for solutions during risk management.¦The characteristics of knowledge vary considerably between stakeholders. The affiliation to a specific group is thus not a sufficient criterion to determine the quality of a stakeholder's knowledge: every stakeholder may have knowledge that is relevant for risk management. However, differences between stakeholders complicate the communication. This problem could be attenuated by mediators which ensure the translation between stakeholders. In practice, such instances are generally lacking.¦The management and knowledge of hydrological risks are highly interdependent. The state and the characteristics of the four categories of knowledge determine directly the quality of flood protection. Gaps and imprecison may thus lead to forms of management which are not adapted to the actual risks. This kind of situation can be avoided by updating regularly the knowledge about hydrological risks and about protection measures. However, knowledge must not be restricted to the experience of past floods. On the contrary, it is indispensable also to involve prospective reflections and new scenarios.¦Risk management does not only require knowledge, it may also generate new knowledge and enlarge existing knowledge. The creation and the transfer of knowledge has thus to be seen as a central task in risk management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé De nombreuses recommandations nationales et internationales sont publiées régulièrement qui définissent la manière dont les patients hypertendus devraient être pris en charge. Ces recommandations sont-elles suivies et applicables ? Dans cette étude transverse effectuée à la PMU à Lausanne, nous avons évalué la qualité de la prise en charge de 225 patients hypertendus suivis par des assistants en formation de médecine de premier recours. Ces 225 patients ont été retenus après une sélection de 1044 dossiers de la consultation générale de la PMU. Les résultats montrent que la moyenne des 3 dernières pressions artérielles était contrôlée dans 32,4% des cas à moins de 140/90 mmHg (TA systolique contrôlée à 42% et TA diastolique à 58%). 60% des patients ont eu une mesure de pression à chacune des 3 dernières consultations. 79% des mesures se terminaient par 0 ou par 5(théoriquement 20%). Le contrôle de la pression artérielle n'était pas statistiquement différent quelles que soient les comorbidités connues (diabète, insuffisance rénale ou insuffisance cardiaque). En conclusion, la qualité de la mesure et de la prise en charge de la TA par les médecins de premier recours en formation est comparable à celle retrouvée en pratique ambulatoire et pourrait être améliorée. Les recommandations basées sur la stratification des FRCV se heurtent à des problèmes dans leur application pratique. Le contrôle de la TA n'est pas meilleur chez les patients à haut risque cardio-vasculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT : Ostracods are benthic microcrustaceans enclosed in low-Mg calcite bivalves. Stable isotope compositions, Mg/Ca, and Sr/Ca ratios of ostracod fossil valves have proven useful to reconstruct past environmental conditions. Yet, several discrepancies persist and the influence of many factors remains unclear. It is the aim of this study to improve the use of ostracod valve geochemistry as palaeoenvironmental proxies by examining the extent of isotope fractionation and trace element partitioning during valve calcification. To achieve this, the environmental parameters (pH, temperature) and chemical composition of water (C-and O-isotope composition and calcium, magnesium, and strontium content) were measured at sites where living ostracods were sampled. The sampling was on a monthly basis over the course of one year at five different water depths (2, 5, 13, 33, and 70 m) in Lake Geneva, Switzerland. The one-year sampling enabled collection of environmental data for bottom and interstitial pore water. In littoral to sublittoral zones, C-isotope composition of DIC and the Mg/Ca and Sr/Ca ratios of water are found to vary concomitantly with water temperature. This is due to the precipitation of calcite, which is induced by higher photosynthetic activity as temperature and/or solar radiation intensify in summer. In deeper zones, environmental parameters remain largely constant throughout the year. Variations of pH, DIC concentrations and C-isotope compositions in interstitial water result from aerobic as well as anaerobic respiration, calcite dissolution and methanogenesis. Bathymetric distribution, life cycles, and habitats were derived for 15 ostracod species and are predominantly related to water temperature and sediment texture. O-isotope compositions of ostracod valves in Lake Geneva reflect that of water and temperature. However, offsets of up to 3 permil are observed in comparison with proposed inorganic calcite precipitation equilibrium composition. Deprotonation of HCO3- and/or salt effect at crystallisation sites may explain the disequilibrium observed for O-isotopic compositions. C-isotope compositions of ostracod valves are not as well constrained and appear to be controlled by a complex interaction between habitat preferences and seasonal as well as spatial variations of the DIC isotope composition. For infaunal forms, C-isotope compositions reflect mainly the variation of DIC isotope composition in interstitial pore waters. For epifaunal forms, C-isotope compositions reflect the seasonal variation of DIC isotope compositions. C-isotope compositions of ostracod valves is at equilibrium with DIC except for a small number of species (L. inopinata, L. sanctipatricii and possibly C. ophtalmica, and I. beauchampi). Trace element uptake differs considerably from species to species. For most epifaunal forms, trace element content follows the seasonal cycle, recording temperature increases and/or variations of Mg/Ca and Sr/Ca ratios of water. In contrast, infaunal forms are predominantly related to sediment pore water chemistry. RÉSUMÉ EN FRANÇAIS : Les ostracodes sont de petits crustacés benthiques qui possèdent une coquille faite de calcite à faible teneur en magnésium. La composition isotopique et les rapports Mg/Ca et Sr/Ca d'ostracodes fossiles ont été utilisés maintes fois avec succès pour effectuer des reconstructions paléoenvironnementales. Néanmoins, certains désaccords persistent sur l'interprétation de ces données. De plus, l'influence de certains facteurs pouvant biaiser le signal reste encore inconnue. Ainsi, le but de cette étude est de rendre plus performant l'emploi de la composition géochimique des ostracodes comme indicateur paléoenvironnemental. Pour réaliser cela, cinq sites situés dans le Léman à 2, 5, 13, 33 et 70 m de profondeur ont été choisis pour effectuer les échantillonnages. Chaque site a été visité une fois par mois durant une année. Les différents paramètres environnementaux (pH, température) ainsi que la composition géochimique de l'eau (composition isotopique de l'oxygène et du carbone ainsi que teneur en calcium, magnésium et strontium) ont été déterminés pour chaque campagne. Des ostracodes vivants ont été récoltés au cinq sites en même temps que les échantillons d'eau. Ce travail de terrain a permis de caractériser la géochimie de l'eau se trouvant juste au-dessus des sédiments ainsi que celle de l'eau se trouvant dans les interstices du sédiment. Dans les zones littorales à sublittorales, la composition isotopique du carbone inorganique dissout (CID) ainsi que les rapports Mg/Ca et Sr/Ca de l'eau varient linéairement avec la température. Ceci peut être expliqué par la précipitation de calcite qui est contrôlée par l'activité photosynthétique, variant elle même linéairement avec la température. Dans les zones plus profondes, les paramètres environnementaux restent relativement constants tout au long de l'année. Les variations du pH, de la concentration et de la composition isotopique du CID dans les sédiments résultent de la libération de carbone engendrée par la dégradation de la matière organique avec présence d'oxygène ou via réduction de nitrates et de sulfates, par la dissolution de carbonates, ainsi que par la méthanogenèse. La distribution bathymétrique, le cycle de vie ainsi que l'habitat de 15 espèces ont été déterminés. Ceux-ci sont principalement reliés à la température de l'eau et à la texture des sédiments. La composition isotopique de l'oxygène des valves d'ostracodes reflète celle de l'eau et la température qui régnait lors de la calcification. Néanmoins, des écarts pouvant aller jusqu'à 3 0/00 par rapport à l'équilibre théorique ont été obtenus. La déprotonation de HCO3 ou un 'effet de sel' pourrait être à l'origine du déséquilibre observé. La composition isotopique du carbone des valves d'ostracodes n'est pas aussi bien cernée. Celle-ci semble être principalement contrôlée par une interaction complexe entre l'habitat des ostracodes et les variations saisonnières et spatiales de la composition isotopique du CID. Pour les espèces endofaunes, la composition isotopique du carbone reflète principalement la variation de la composition isotopique du CID à l'intérieur des sédiments. Pour les formes épifaunes, c'est la variation saisonnière de la composition du CID qui contrôle celle de la coquille des ostracodes. En général, la composition isotopique du carbone des valves d'ostracodes est en équilibre avec celle de CID, hormis pour quelques rares espèces (L. inopinata, L. sanctipatricii et peut-être C. ophtalmica et I. beauchampi). L'incorporation des éléments traces diffère passablement d'une espèce à l'autre. Pour la plupart des espèces épifaunes, la teneur en éléments traces des coquilles reflète les variations saisonnières. Ces espèces semblent enregistrer les variations soit de la température soit des rapports Mg/Ca et Sr/Ca de l'eau. La teneur en élément traces des formes infaunales, au contraire, est principalement reliée à la chimie de l'eau interstitielle. RÉSUMÉ GRAND-PUBLIC : La connaissance de l'évolution du climat dans le futur est primordiale pour notre société, car elle permet de développer différentes stratégies pour faire face aux problèmes engendrés pas le changement climatique : stratégies environnementale, humanitaire, ou encore économique. Cette problématique est actuellement, à juste titre, sujet d'une vive préoccupation. La géologie peut-elle contribuer à l'effort communautaire entrepris? Naturellement, ce sont les climatologues qui sont sur le devant de la scène. Il n'empêche que ces derniers, pour pouvoir prédire l'avenir, doivent s'appuyer sur le passé. La géologie est alors d'un grand intérêt car c'est effectivement la seule science qui permette d'estimer les variations climatiques à grande échelle sur de longues périodes. Ainsi, voulant moi-même contribuer aux recherches menées dans ce domaine, je me suis tourné à la fin de mes études vers la paléoclimatologie, science qui a pour but de reconstruire le climat des temps anciens. Nous nous sommes rendu compte que l'évolution climatique de la région où nous habitons n'avait pas encore fait le sujet d'études approfondies. Il est pourtant important de connaître la variation locale des changements climatiques pour obtenir des modèles climatiques fiables. En conséquence, un vaste projet a vu le jour : reconstruire, à l'aide des sédiments du lac Léman, les variations paléoclimatiques et paléo-environnementales depuis le retrait du Glacier de Rhône, il y a environ 15'000 ans, jusqu'à nos jours. Pour ce genre de travail, la géochimie, qui est une forme de chimie, utilisée en science de la terre regroupant la chimie classique et la chimie isotopique, est une alliée particulièrement efficace. Elle permet en effet, via différentes mesures faites sur des archives géologiques (par exemple des fossiles ou des sédiments) d'obtenir des informations, souvent quantitatives, sur les conditions (le climat, la flore ou encore la bio productivité, etc...) qui régnaient il y a fort longtemps. Les coquilles d'ostracodes, qui sont de petits animaux vivant au fond des lacs, sont une des archives les plus prometteuses. Ces animaux sont des petits crustacés s'entourant d'une coquille calcaire qu'ils sécrètent eux-mêmes. A la mort de l'animal, la coquille est intégrée dans les sédiments et reste intacte à travers les âges. Des études ont montré qu'en analysant la géochimie de ces coquilles fossiles, il est possible de reconstruire les conditions environnementales qui régnaient à l'époque de vie de ces fossiles. Cette démarche nécessite qu'une condition bien précise soit remplie: la composition géochimique de la coquille doit enregistrer de manière fidèle la chimie de l'eau et/ou la température de l'eau présentes au moment de la sécrétion de la coquille. Le but spécifique de notre recherche a précisément été d'étudier la façon dont la chimie de l'eau ainsi que sa température sont enregistrées dans la coquillé des ostracodes. Une fois les relations entre ces divers paramètres dans l'étant actuel du système établies, il sera alors possible de les utiliser pour interpréter des données issues de coquilles fossiles. Pour ce faire, nous avons mesuré la température de l'eau de manière continue et récolté mensuellement des échantillons d'eau et des ostracodes vivants pendant une année. Cinq sites situés à 2, 5, 13, 33 et 70 mètres de profondeur ont été choisis pour effectuer ces échantillonnages dans le Léman. Le travail de terrain nous a amené à étudier la biologie de 15 espèces. Nous avons pu établir la profondeur à laquelle vivent ces animaux, leur période de développement ainsi que leur habitat respectifs. Ces résultats ont permis de mieux cerner la relation qu'il existe entre la chimie de l'eau, sa température et la composition géochimique des coquilles d'ostracodes. Nous avons ainsi pu confirmer que les coquilles d'ostracodes enregistrent de manière fidèle la composition chimique et isotopique de l'eau. De même, nous avons pu établir de manière plus précise l'effet de la température sur la géochimie des coquilles. Néanmoins, les relations trouvées entre ces trois éléments sont plus complexes pour certaines espèces, cette complexité étant souvent liée à un caractère spécifique de leur écologie. Nous avons mis en lumière certains effets qui biaisent les résultats et défini précisément les conditions dans lesquelles on peut s'attendre à avoir des difficultés dans leur interprétation. Maintenant que nous avons établi les relations entre le climat actuel et la composition géochimique des coquilles d'ostracodes actuels, nous pouvons, sur la base de ce modèle, reconstruire le climat depuis le retrait du Glacier du Rhône jusqu'à nos jours à l'aide d'ostracodes fossiles. Mais cela est une autre histoire et fera, je l'espère, le sujet de nos futures recherches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la thérapie de l'état de stress post-traumatique chronique (PTSD), l'Exposition Prolongée (PE) à des stimuli associes à une expérience d'origine traumatique est considérée comme une méthode de traitement de pointe. Notre étude de cas, basée sur l'utilisation du manuel de Foa et Rothbaum (1998), concerne Caroline, une patiente adulte victime d'abus sexuels dans l'enfance, traitée en 40 séances, sur une durée d'une année. En complément, nous avons la technique de l'«Analyse des Plans» de Caspar (1995, 2007) pour la formulation de cas individualisée et la planification du traitement, selon le concept de Caspar de la Relation Thérapeutique Orientée sur les Motifs (MOTR). Le traitement a été très efficace, comme l'attestent les mesures quantitatives standardisées, les changements dans les schémas de comportements, ainsi que son compte rendu subjectif. Une analyse du processus thérapeutique illustre l'importance d'une combinaison de procédures basées sur un manuel avec des formulations et interventions de cas individuels. Le cas est discute dans le contexte de l'amélioration du traitement cognitivo-comportemental du PTSD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs : Le coefficient de diffusion apparente (ADC) est utilisé pour le suivi des lésions hépatiques malignes traitées. Cependant, l'ADC est généralement mesuré dans la lésion entière, alors que cela devrait être réalisé dans la zone la plus restreinte (ZLPR), cette dernière représentant potentiellement du résidu tumoral. Notre objectif était d'évaluer la variabilité inter/intraobservateur de l'ADC dans la tumeur entière et dans la ZLPR. Matériels et méthodes : Quarante patients traités par chimioembolisation ou radiofréquence ont été évalués. Après consensus, deux lecteurs ont indépendamment mesuré l'ADC de la lésion entière et de la ZLPR. Les mêmes mesures ont été répétées deux semaines plus tard. Le test de Spearman et la méthode de Bland-Altman ont été utilisées. Résultats : La corrélation interobservateur de l'ADC dans la lésion entière et dans la ZLPR était de 0,962 et de 0,884. La corrélation intraobservateur était de 0,992 et de 0,979, respectivement. Les limites de variabilité interobservateur (mm2/sec*10 - 3) étaient entre -0,25/+0,28 dans la lésion entière et entre -0,51/+0,46 dans la ZLPR. Les limites de variabilité intraobservateur étaient respectivement : -0,25/+0,24 et -0,43/+0,47. Conclusion : La corrélation inter/intraobservateur dans les mesures d'ADC est bonne. Toutefois, une variabilité limitée existe et doit être considérée lors de l'interprétation des valeurs d'ADC des tumeurs hépatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Mesures de l'aorte ascendante par scanner synchronisé au rythme cardiaque: une étude pilote pour établir des valeurs normatives dans le cadre des futures thérapies par transcathéter. Objectif : L'objectif de cette étude est d'établir les valeurs morphométriques normatives de l'aorte ascendante à l'aide de l'angiographie par scanner synchronisé au rythme cardiaque, afin d'aider au développement des futurs traitements par transcathéter. Matériels et méthodes : Chez soixante-dix-sept patients (âgé de 22 à 83 ans, âge moyen: 54,7 ans), une angiographie par scanner synchronisé au rythme cardiaque a été réalisée pour évaluation des vaisseaux coronaires. Les examens ont été revus afin d'étudier l'anatomie de la chambre de chasse du ventricule gauche jusqu'au tronc brachio-céphalique droit. A l'aide de programmes de reconstructions multiplanaires et de segmentation automatique, différents diamètres et longueurs considérés comme importants pour les futurs traitements par transcathéter ont été mesurés. Les valeurs sont exprimées en moyennes, médianes, maximums, minimums, écart-types et en coefficients de variation. Les variations de diamètre de l'aorte ascendante durant le cycle cardiaque ont été aussi considérées. Résultats : Le diamètre moyen de la chambre de chasse du ventricule gauche était de 20.3+/-3.4 mm. Au niveau du sinus coronaire de l'aorte, il était de 34.2+/-4.1 mm et au niveau de la jonction sinotubulaire il était de 29.7+/-3.4 mm. Le diamètre moyen de l'aorte ascendante était de 32.7+/-3.8 mm. Le coefficient de variation de ces mesures variait de 12 à 17%. La distance moyenne entre l'insertion proximale des valvules aortiques et le départ du tronc brachio-céphalique droit était de 92.6+/-11.8 mm. La distance moyenne entre l'insertion proximale des valvules aortiques et l'origine de l'artère coronaire proximale était de 12.1+/-3.7 mm avec un coefficient de variation de 31%. La distance moyenne entre les deux ostia coronaires était de 7.2+/-3.1 mm avec un coefficient de variation de 43%. La longueur moyenne du petit arc de l'aorte ascendante entre l'artère coronaire gauche et le tronc brachio-céphalique droit était de 52.9+/-9.5 mm. La longueur moyenne de la continuité fibreuse entre la valve aortique et la valvule mitrale antérieure était de 14.6+/-3.3 mm avec un coefficient de variation de 23%. L'aire moyenne de la valve aortique était de 582.0+/-131.9 mm2. La variation du diamètre antéro-postérieur et transverse de l'aorte ascendante était respectivement de 8.4% et de 7.3%. Conclusion Il existe d'importantes variations inter-individuelles dans les mesures de l'aorte ascendante avec cependant des variations intra-individuelles faibles durant le cycle cardiaque. De ce fait, une approche personnalisée pour chaque patient est recommandée dans la confection des futures endoprothèses de l'aorte ascendante. Le scanner synchronisé au rythme cardiaque jouera un rôle prépondérant dans le bilan préthérapeutique. Abstract : The aim of this study was to provide an insight into normative values of the ascending aorta in regards to novel endovascular procedures using ECG-gated multi-detector CT angiography. Seventy-seven adult patients without ascending aortic abnormalities were evaluated. Measurements at relevant levels of the aortic root and ascending aorta were obtained. Diameter variations of the ascending aorta during cardiac cycle were also considered. Mean diameters (mm) were as follows: LV outflow tract 20.3+/-3.4, coronary sinus 34.2+/-4.1, sinotubular junction 29.7+-3.4 and mid ascending aorta 32.7+/-3.8 with coefficients of variation (CV) ranging from 12 to 17%. Mean distances (mm) were: from the plane passing through the proximal insertions of the aortic valve cusps to the right brachio-cephalic artery (BCA) 92.6111.8, from the plane passing through the proximal insertions of the aortic valve cusps to the proximal coronary ostium 12.1+/-3.7, and between both coronary ostia 7.2+/-3.1, minimal arc of the ascending aorta from left coronary ostium to right BCA 52.9 X9.5, and the fibrous continuity between the aortic valve and the anterior leaflet of the mitral valve 14.óf3.3, CV 13-43%. Mean aortic valve area was 582+-131.9 mm2. The variations of the antero-posterior and transverse diameters of the ascending aorta during the cardiac cycle were 8.4% and 7.3%, respectively. Results showed large inter-individual variations in diameters and distances but with limited intra-individual variations during the cardiac cycle. A personalized approach for planning endovascular devices must be considered.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cannabis est l'une des drogues illégales les plus consommées au monde. Le delta-9- tétrahydrocannabinol (THC) est le composé psychoactif majeur du cannabis et est fréquemment détecté dans le sang de conducteurs impliqués dans un accident de la route, alors qu'il est actuellement interdit de conduire sous l'influence du THC en Suisse comme dans de nombreux pays européens. La détection de ce composé dans le sang est suivie d'une série de mesures pénales et administratives à l'encontre du conducteur impliqué. Cette thèse intitulée « Etude d'administration contrôlée de cannabis et profils cinétiques dans les fluides biologiques » s'inscrit dans une étude toxicologique menée au Centre Hospitalier Universitaire Vaudois (CHUV). Le but de cette étude est d'évaluer les effets du cannabis sur le fonctionnement du cerveau lorsque le consommateur accompli une tâche fondamentale de la conduite automobile. Pour cela, l'imagerie médicale par résonnance magnétique fonctionnelle (IRMf) est combinée à un test informatisé simulant une tâche psychomotrice requise pour une conduite automobile sûre. Il s'agit d'un test de double tâche de poursuite d'une cible au moyen d'un curseur dirigé par un joystick, combiné à une tâche secondaire de détection de signaux routiers. Parallèlement, les profils cinétiques sanguins et salivaires des volontaires ont été déterminés grâce à des prélèvements effectués tout au long de la journée d'étude. Les objectifs principaux de ce travail de thèse sont les suivants : après une revue de la littérature existante sur les techniques d'analyse des cannabinoïdes dans les fluides biologiques, une méthode a été développée et validée pour ces composés dans la salive puis appliquée aux échantillons de l'étude. En parallèle, les échantillons sanguins et urinaires ont été analysés, en partie avec une méthode adaptée de celle développée pour la salive. Pour montrer la versatilité de cette méthode, celle-ci a été employée pour analyser des échantillons de bile qui a l'avantage de contenir des concentrations élevées de métabolites conjugués. Dans un deuxième temps, les dosages effectués sur le sang et la salive ont permis d'établir les profils cinétiques des cannabinoïdes, de déterminer leurs paramètres pharmacocinétiques et de les comparer. Les données obtenues ont montré que la concentration sanguine en acide 11-nor-9- carboxy-delta-9-tétrahydrocannabinol (THCCOOH) pouvait servir à distinguer les fumeurs occasionnels des fumeurs réguliers de cannabis, car elle est significativement plus élevée chez les consommateurs réguliers. De plus, d'autres cannabinoïdes présents dans la salive pourraient servir de marqueurs de consommation récente dans ce fluide biologique. Enfin, que ce soit dans le sang, la salive ou l'urine, des phytocannabinoïdes peuvent être utilisés comme marqueur de consommation de cannabis illégal car ils sont absents des médicaments à base de cannabis utilisant des préparations synthétiques ou purifiées du THC.