1000 resultados para Paramètres pharmacocinétiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La faune amphibienne du bassin de l'Aubonne et de ses affluents entre Ballens et Allaman a été recensée durant deux campagnes de terrain en 2000 et 2001. Douze espèces d'amphibiens ont été observées sur 63 sites répartis sur près de 130 km2. Plus des deux tiers des espèces amphibiennes de Suisse sont représentées dans le secteur 1Laboratoire de Biologie de la Conservation, Institut d'Ecologie, Bâtiment de Biologie CH-1015 Dorigny E-mail: Jerome.Pellet@ie-zea.unil.ch CODEN: BSVAA6 © Société vaudoise des Sciences naturelles Droits de reproduction réservés 42 J. Pellet, S. Dubey et S. Hoehn étudié. Des cartes illustrent la distribution de chaque espèce. Une régression logistique appliquée à chaque espèce tente de mettre en évidence une relation entre les données de présence et 23 paramètres d'habitats mesurés dans 48 sites. Dans 5 cas, un ou deux paramètres d'habitat peuvent être mis en relation avec la répartition de l'amphibien en question. Ainsi, le crapaud commun est positivement corrélé avec la proportion de végétation érigée recouvrant les plans d'eau et négativement corrélé avec l'altitude. Le crapaud calamite est lui fortement lié aux paysages rudéraux et gravières, tandis que la répartition des grenouilles rousses et rieuses est limitée par l'altitude. La rainette verte semble éviter les plans d'eau où la conductivité est trop élevée. Indication dans un paysage rural d'une charge en nitrates, la conductivité d'un plan d'eau peut être considérée comme une mesure indirecte de sa pollution organique. Un suivi du secteur prospecté permettra de connaître l'évolution des populations de chaque espèce présente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cancer-testis antigènes appartiennent à la famille des antigènes tumoraux spécifiques. Ils ont montré un pouvoir immunogène chez les patients porteurs de différents cancers. En effet, ils stimulent sélectivement les lymphocytes cytotoxiques, et leur expression spécifique dans les tissus tumoraux en fait une cible idéale pour une vaccination antitumorale. Le but de cette étude est d'identifier l'expression de certains de ces antigènes, d'analyser leur valeur pronostique et de déterminer la meilleure cible antigénique pour permettre une immunothérapie spécifique dans les carcinomes épidermoïdes des voies aérodigestives supérieures. Le profil et le taux d'expression de 12 cancer-testis antigènes (MAGE-A1, MAGE-A3, MAGE-A4, MAGEA10, MAGE-C2, NY-ESO-1, LAGE-1, SSX-2, SSX-4, BAGE, GAGE-1/2, GAGE-3/4) et de 3 autres antigènes tumoraux spécifiques (PRAME, HERV-K-MEL, NA-17A) ont été évalués par RT-PCR sur 57 échantillons de cancers ORL primaires. Les paramètres tumoraux et cliniques ont été prospectivement collectés afin de corréler ces données avec le résultat de nos investigations immunobiologiques. Quatre-vingt-huit pour cent des tumeurs expriment au moins 1 antigène. Une co-expression de 3 gènes ou plus est détectée chez 59% des patients. MAGE-A4 (60%), MAGE-A3 (51%), PRAME (49%) et HERV-K-MEL (42%) sont les gènes le plus fréquemment exprimés. Ils sont totalement absents des muqueuses saines avoisinantes. La présence de MAGE-A et NY-ESO-1 à la surface des cellules a été vérifiée par immunohistochimie. Nos analyses statistiques ont permis d'identifier une diminution de la survie liée au cancer chez les patients porteurs d'une tumeur exprimant de multiples cancer-testis antigènes et notamment MAGE-A4 dont l'expression indépendante d'autres éléments cliniques s'associe statistiquement à un taux de survie diminué. Nos résultats ont permis d'identifier un rôle pronostique de l'expression des gènes associés aux tumeurs dont l'expression est apparemment liée à un phénotype de malignité plus élevé. Cette constatation, corroborée par l'identification parallèle d'un infiltrat lymphocytaire spécifique confirme l'utilité potentielle de certains cancer-testis antigènes comme cible pour une immunothérapie ciblée dans les carcinomes des voies aérodigestives supérieures

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'antidépresseur chiral venlafaxine (VEN) est à la fois un inhibiteur de la récapture de la sérotonine et de la noradrénaline. Le CYP2D6 et le CYP3A4 contribuent à son métabolisme stéreosélectif. Dix patients génotypés au CYP2D6 et dépressifs (F32x et F33x, ICD-10) ont participé à cette étude ouverte sur les conséquences pharmacocinétiques et pharmacodynamiques d'une « augmentation » avec la carbamazepine chez des non-répondeurs à la venlafaxine. Après une première période de traitement de quatre semaines avec VEN (195 - 52 mg/ jour), le seul patient qui présentait un déficience génétique de CYP2D6 (poor metaboliser), avait les taux plasmatiques de S-VEN et R-VEN les plus élevés, tandis que ceux de R-0-déméthyl-VEN étaient les plus bas dans ce groupe. Comme seulement 4 patients ont été des répondeurs après 4 semaines de traitement, 6 patients ont été inclus dans la deuxième période de traitement combiné VEN et carbamazépine. Cinq patients non-répondeurs ont complété cette deuxième période d'étude de quatre semaines. Chez l'unique non-répondeur au traitement combiné, on pouvait observer à la fin de la période d'étude une diminution importante des deux énantiomères de VEN, 0-desmethy'lvenlafaxine (ODV), N-desmethylvenlafaxine (NDV) et N, 0-didesmethylvenlafaxine (NODV) dans le plasma. Cela suggère un manque de compliance chez ce patient, mais une induction métabolique par la carbamazepine ne peut pas être exclue entièrement. L'administration de la carbamazepine (moyen ± s.d. (range) ; 360 ± 89 (200-400) mg/jour)) pendant quatre semaines n'a pas eu comme résultat une modification significative des concentrations plasmatiques des énantiomères de VEN et de ses métabolites 0- et N-démethylés chez les autres patients. En conclusion, ces observations préliminaires suggèrent qu'une combinaison de VEN et de carbamazepine représente une stratégie intéressante par son efficacité, sa tolérance et l'absence de modifications pharmcocinétiques, mais ces résultats devraient être vérifiés dans une plus grande étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME BUT Cette étude a été menée sur le suivi de patients traités pour un glioblastome nouvellement diagnostiqué. Son objectif a été de déterminer l'impact des séquences de perfusion et de diffusion en imagerie par résonance magnétique (IRM). Un intérêt particulier a été porté au potentiel de ces nouvelles techniques d'imagerie dans l'anticipation de la progression de la maladie. En effet, l'intervalle de temps libre de progression est une mesure alternative de pronostic fréquemment utilisée. MATERIEL ET METHODE L'étude a porté sur 41 patients participant à un essai clinique de phase II de traitement par temozolomide. Leur suivi radiologique a comporté un examen IRM dans les 21 à 28 jours après radiochimiothérapie et tous les 2 mois par la suite. L'évaluation des images s'est faite sur la base de l'évaluation de l'effet de masse ainsi que de la mesure de la taille de la lésion sur les images suivantes : T1 avec produit de contraste, T2, diffusion, perfusion. Afin de déterminer la date de progression de la maladie, les critères classiques de variation de taille adjoints aux critères cliniques habituels ont été utilisés. RESULAT 311 examens IRM ont été revus. Au moment de la progression (32 patients), une régression multivariée selon Cox a permis de déterminer deux paramètres de survie : diamètre maximal en T1 (p>0.02) et variation de taille en T2 (p<0.05). L'impact de la perfusion et de la diffusion n'a pas été démontré de manière statistiquement significative. CONCLUSION Les techniques de perfusion et de diffusion ne peuvent pas être utilisées pour anticiper la progression tumorale. Alors que la prise de décision au niveau thérapeutique est critique au moment de la progression de la maladie, l'IRM classique en T1 et en T2 reste la méthode d'imagerie de choix. De manière plus spécifique, une prise de contraste en T1 supérieure à 3 cm dans son plus grand diamètre associée à un hypersignal T2 en augmentation forment un marqueur de mauvais pronostic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le glucose est le principal substrat énergétique cérébral. Sa concentration dans le cerveau est étroitement liée à la glycémie. Chez le patient neurolésé, du fait de l'augmentation des besoins énergétiques, les réserves cérébrales de glucose sont limitées. Une glycémie suffisamment élevée paraît nécessaire pour assurer un apport adéquat de glucose au cerveau. Objectifs : Le but de cette étude est de mieux comprendre la relation entre glucose cérébral et glycémie lors de lésion cérébrale en analysant la physiologie cérébrale chez des patients neurolésés. Plus précisément nous investiguerons: La relation entre le glucose cérébral et le glucose systémique et son association avec le pronostic vital, l'association entre la neuroglucopénie et différents paramètres cérébraux tel que l'hypertension intracrânienne (HTIC) ou la dysfonction énergétique et finalement l'effet d'une perfusion de glucose 10% sur le glucose cérébral lors d'état de neuroglucopénie. Méthodologie : Analyse d'une base de données prospective comportant des patients souffrant d'un traumatisme crânio-cérébral (TCC) ou une hémorragie sous- arachnoïdienne (HSA) sévères. Les patients comateux sont monitorés par un dispositif intra-parenchymateux avancé, comprenant un cathéter de microdialyse cérébrale et un capteur de PbO2. Résultats : 34 patients consécutifs (moyenne d'âge 42 ans, moyenne de temps jusqu'au début du monitoring : 1.5 jours ± 1 ; moyenne de la durée maximale du monitoring : 6 jours ± 3) ont été étudiés, 25 patients souffrant d'un TCC et 9 patients avec une HSA. Nous avons obtenu une corrélation individuelle entre le glucose cérébral et la glycémie chez 52.9 % des patients. Lorsque la glycémie est inférieure à 5 mmol/l, on observe plus fréquemment des épisodes de neuroglucopénie en comparaison aux valeurs intermédiaires de glycémie (5 - 9.9 mmol/l). Les épisodes d'HTIC (pression intracrânienne (PIC) > 20 mmHg) sont plus fréquemment associés à des épisodes de neuroglucopénie que lorsque la pression intracrânienne est normale 75 % vs. 35%. La dysfonction énergétique est plus souvent associés à des épisodes de neuroglucopénie que lorsque le LPR est normal: 55% contre 36%. Un coefficient de corrélation entre glucose cérébral et glycémie significativement plus élevé a été obtenu chez les survivants que chez les non-survivants (0.1 [interquartile range 0.02- 0.3] contre 0.32 [0.17-0.61]). Chez les patients neuroglucopéniques ayant une corrélation entre glucose cérébral et glycémie, la perfusion de glucose i.v. fait monter le glucose cérébral jusqu'à l'arrêt de la perfusion. Conclusion : Malgré une étroite relation entre glycémie et glucose cérébral en conditions stables, cette relation peut être altérée par des causes cérébrales chez les patients neurolésés montrant que la diminution de la disponibilité du glucose extracellulaire ne résulte pas uniquement d'une hypoglycémie relative mais également de causes cérébrales tel que l'hypoperfusion, l'HTIC ou la dysfonction énergétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1.1 Objectifs Le syndrome de bas débit cardiaque est une appréciation clinique (Hoffman et al.) dont les signes sont peu sensibles, peu spécifiques, souvent tardifs et dont la mesure chez l'enfant est rendue impossible en clinique pour des raisons techniques et de fiabilités des systèmes de mesures. Aucun score n'est applicable à l'heure actuelle chez l'enfant. C'est pourquoi, ces 10 dernières années, de nombreuses équipes se sont penchée activement sur ce problème afin de définir des marqueurs performants prédisant la survenue du LCOS après chirurgie cardiaque chez l'enfant. Cette étude s'est attachée à réunir ses marqueurs cardiaques, de les combiner et de les inclure dans un score de bas débit cardiaque. 1.2 Méthode Enfants et nouveau-nés ayant subit une chirurgie cardiaque au CHUV, après malformation cardiaque congénitale, entre janvier 2010 et octobre 2011 (N=48). Age : 8 jours à 13 ans (médiane : 16.3 mois). Deux scores développés. Soumission à l'aveugle de la liste des patients à un comité d'expert pour identifier les patients en LCOS à 48h post-chirurgie, puis comparaison avec le résultat du score. Les paramètres du premier score (SCORE 1), sont agendées de manière ordinales, alors que dans le deuxième score (SCORE 2) elles le sont de manière dichotomiques. Valeurs cut-off supérieures et inférieures des scores choisies selon une recherche extensive dans la littérature. Les valeurs cut-off intermédiaires (SCORE 1) ont été choisies au hasard. 1.3 Résultats La régression logistique multivariée pour la prédiction d'un LCOS à 48h, démontre que seul le score d'amine durant les 24 premières heures et un prédicteur indépendant de LCOS (OR 16.6 [2.6- 105.5] p<0.0001). Ce paramètre est bien corrélé avec le résultat des experts avec un coefficient de corrélation r=0.57 (p<0.0001). Les spécificités des deux scores (AUC=0.78 (p<0.0001) respectivement AUC=0.81 (p<0.0001)) sont de 71% respectivement 93.5%, les sensibilités de 70.6% respectivement 41.2 %, VPP de 57.1% respectivement 77.8%, VPN de 81.5 % respectivement 74.4%. Les tests du khi2 valent 7.7 (p=0.006) respectivement 8.69 (p=003), rejettent l'hypothèse nulle d'indépendance entre le résultat des experts et celui prédit par le score. 1.4 Conclusions Les scores développés dans le cadre de cette étude ne montrent pas une corrélation significative avec l'apparition d'un bas débit cardiaque. Même si le choix des paramètres permettant de quantifier l'apparition d'un bas débit cardiaque à 48h fût réalisé selon une recherche extensive dans la littérature, le design rétrospectif de l'étude, n'a pas permit de vérifier efficacement la relation entre l'apparition d'un bas débit cardiaque et le score de bas débit cardiaque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diagnostic de lymphome représente 4% de tous les cancers et a une incidence particulièrement élevée dans les pays industrialisés. La proportion de lymphomes T, évaluée en Europe et aux Etats Unis, représente environ 5 à 10% des lymphomes. Alors que des progrès très sensibles ont été apportés dans la prise en charge et le pronostic des lymphomes B agressifs durant ces dernières décennies et en particulier depuis le début des années 2000 avec l'utilisation des anticorps anti-CD20 associés à la chimiothérapie, le pronostic des lymphomes T reste très décevant. La survie globale des lymphomes T à 5 ans est estimée entre 28% et 38%. Le bénéfice réel d'une chimiothérapie intensive suivie d'une autogreffe de cellules souches hématopoïétiques périphériques au terme d'un traitement de chimiothérapie d'induction dans le lymphome T périphérique reste débattu. Les résultats des rares études prospectives et des études rétrospectives à disposition sont discordants. Nous avons donc analysé rétrospectivement 43 patients successifs de mars 2000 à mars 2011, atteints de lymphome T, issus de notre base de données du programme autogreffe lausannois. Nos analyses statistiques permettent, sur la base d'un suivi médian de 63 mois, une estimation à 12 ans, de la survie globale de nos patients à 40%, de la survie sans progression à 34% et de la survie sans événement à 30%. Ces chiffres s'inscrivent parfaitement dans les résultats des études prospectives qui montrent un bénéfice de l'autogreffe dans le lymphome T. Parmi les différents paramètres pronostiques habituellement évalués, l'âge et l'absence de symptômes B au diagnostic sont les seuls paramètres statistiquement significatifs en analyse univariée dans notre cohorte. En effet, Les patients de moins de 50 ans et ceux qui ne présentent pas de symptômes B au diagnostic ont un meilleur pronostic. Nous concluons de cette analyse que les patients traités par chimiothérapie intensive et autogreffe de cellules souches hématopoïétiques périphériques ont une survie moyenne supérieure aux résultats rapportés dans la littérature avec des traitements de chimiothérapie conventionnelle de type CHOP. En effet, on estime à environ 50% les patients répondant à une chimiothérapie conventionnelle de type CHOP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Le traitement des leucémies aiguës chez l'enfant représente un des succès de la médecine moderne avec des taux de guérison avoisinant les 80% ce qui implique la nécessité de suivre les effets secondaires à long terme des traitements chez cette population de patients. Récemment plusieurs études internationales ont relevé une prévalence plus importante de surpoids et d'obésité chez les enfants traités pour une leucémie aiguë. L'origine de ce processus reste incertaine :aux effets secondaires bien connus et décrits des traitements (stéroïdes et radiothérapie) semblent s'ajouter des facteurs génétiques, familiaux (age, BMI au diagnostic, BMI parents et fratrie), environnementaux. L'objectif de ce travail est d'estimer la prévalence et les facteurs de risque pour le surpoids et l'obésité chez les enfants traités et guéris d'une leucémie aiguë en Suisse romande et de comparer ces résultats à ceux d'études internationales. Pour répondre à ces questions nous avons inclus 54 patients (40 de Lausanne et 14 de Genève) traités pour une leucémie aiguë. Seuls les enfants à 5 ans de leur première rémission clinique, sans atteinte du système nerveux central, testiculaire ou médullaire et traités par chimiothérapie seule sont retenus. Leur poids, taille sont enregistrés durant les phases précises de traitement (au diagnostic, à la rémission, fin de consolidation, milieumaintenance et en fin de traitement) puis annuellement jusqu'à 12 ans post fin de traitement. Le BMI (kg/ml) et sa déviation standard BMI-SDS (spécifique pour Page et le sexe) pour les patients et leurs parents sont calculés selon les valeurs internationales (IOTF) respectivement BMI-SDS >1.645 (p<0.05) pour le surpoids et> 1.96 (p<0.025) pour l'obésité. Les résultats de ce travail confirment une prévalence double de surpoids (30% versus 17%) et quadruple d'obésité (18% versus 4%) au sein de la population d'enfants traités pour une leucémie aiguë comparées à la population suisse standard. Les facteurs de risque impliqués sont le BMI initial au diagnostic et le BMI maternel contrairement à Page, sexe, stéroïdes et au BMI paternel. Ces données confirment une prévalence significative d'enfants en surpoids/obèses au sein de cette population avec des résultats similaires à ceux retrouvés dans des études internationales récentes. Les facteurs de risque identifiés semblent plutôt liés à l'environnement familial qu'aux traitements. Ces constatations pourraient être le résultat d'interactions complexes entre "le background génétique", les facteurs environnementaux, les habitudes socioculturelles (activité physique, status nutritionnel) paramètres non évalués dans cette revue. Des études plus larges, prospectives sont nécessaires pour clarifier les rôles des différents facteurs de risque et de leurs interactions ;celles-ci devraient inclure des données génétiques (LEPR), taux de leptine, activité physique et le status nutritionnel. Enfin, l'identification des patients à risque est cruciale afin de prévenir les effets secondaires cardio-vasculaires, métaboliques bien connus liés au surpoids et à l'obésité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence de fluide météorique synchrone à l'activité du détachement (Farmin, 2003 ; Mulch et al., 2007 ; Gébelin et al., 2011), implique que les zones de cisaillement sont des systèmes ouverts avec des cellules de convections à l'échelle crustale et un intense gradient géothermique au sein du détachement (Morrison et Anderson, 1998, Gottardi et al., 2011). De plus, les réactions métamorphiques liées à des infiltrations fluides dans les zones de cisaillement extensionnel peuvent influencer les paramètres rhéologiques du système (White and Knipe, 1978), et impliquer la localisation de la déformation dans la croûte. Dans ce manuscrit, deux zones de cisaillement infiltrées par des fluides météoriques sont étudiées, l'une étant largement quartzitique, et l'autre de nature granitique ; les relations entre déformation, fluides, et roches s'appuient sur des approches structurales, microstructurales, chimiques et isotopiques. L'étude du détachement du Columbia river (WA, USA) met en évidence que la déformation mylonitique se développe en un million d'années. La phase de cisaillement principal s'effectue à 365± 30°C d'après les compositions isotopiques en oxygène du quartz et de la muscovite. Ces minéraux atteignent l'équilibre isotopique lors de leur recristallisation dynamique contemporaine à la déformation. La zone de cisaillement enregistre une baisse de température, remplaçant le mécanisme de glissement par dislocation par celui de dissolution- précipitation dans les derniers stades de l'activité du détachement. La dynamique de circulation fluide bascule d'une circulation pervasive à chenalisée, ce qui engendre localement la rupture des équilibres d'échange isotopiques. La zone de cisaillement de Bitterroot (MT, USA) présente une zone mylonitique de 600m d'épaisseur, progressant des protomylonites aux ultramylonites. L'intensité de la localisation de la déformation se reflète directement sur l'hydratation des feldspaths, réaction métamorphique majeure dite de « rock softening ». Une étude sur roche totale indique des transferts de masse latéraux au sein des mylonites, et d'importantes pertes de volume dans les ultramylonites. La composition isotopique en hydrogène des phyllosilicates met en évidence la présence (1) d'une source magmatique/métamorphique originelle, caractérisée par les granodiorites ayant conservé leur foliation magmatique, jusqu'aux protomylonites, et (2) une source météorique qui tamponne les valeurs des phyllosilicates des fabriques mylonitiques jusqu'aux veines de quartz non-déformées. Les compositions isotopiques en oxygène des minéraux illustrent le tamponnement de la composition du fluide météorique par l'encaissant. Ce phénomène cesse lors du processus de chloritisation de la biotite, puisque les valeurs des chlorites sont extrêmement négatives (-10 per mil). La thermométrie isotopique indique une température d'équilibre isotopique de la granodiorite entre 600-500°C, entre 500-300°C dans les mylonites, et entre 300 et 200°C dans les fabriques cassantes (cataclasites et veines de quartz). Basé sur les résultats issus de ce travail, nous proposons un modèle général d'interactions fluide-roches-déformation dans les zones de détachements infiltrées par des fluides météoriques. Les zones de détachements évoluent rapidement (en quelques millions d'années) au travers de la transition fragile-ductile ; celle-ci étant partiellement contrôlée par l'effet thermique des circulations de fluide météoriques. Les systèmes de détachements sont des lieux où la déformation et les circulations fluides sont couplées ; évoluant rapidement vers une localisation de la déformation, et de ce fait, une exhumation efficace. - The presence of meteoric fluids synchronous with the activity of extensional detachment zones (Famin, 2004; Mulch et al., 2007; Gébelin et al., 2011) implies that extensional systems involve fluid convection at a crustal scale, which results in high geothermal gradients within active detachment zones (Morrison and Anderson, 1998, Gottardi et al., 2011). In addition, the metamorphic reactions related to fluid infiltration in extensional shear zones can influence the rheology of the system (White and Knipe, 1978) and ultimately how strain localizes in the crust. In this thesis, two shear zones that were permeated by meteoric fluids are studied, one quartzite-dominated, and the other of granitic composition; the relations between strain, fluid, and evolving rock composition are addressed using structural, microstructural, and chemical/isotopic measurements. The study of the Columbia River detachment that bounds the Kettle core complex (Washington, USA) demonstrates that the mylonitic fabrics in the 100 m thick quartzite- dominated detachment footwall developed within one million years. The main shearing stage occurred at 365 ± 30°C when oxygen isotopes of quartz and muscovite equilibrated owing to coeval deformation and dynamic recrystallization of these minerals. The detachment shear zone records a decrease in temperature, and dislocation creep during detachment shearing gave way to dissolution-precipitation and fracturing in the later stages of detachment activity. Fluid flow switched from pervasive to channelized, leading to isotopic disequilibrium between different minerals. The Bitterroot shear zone detachment (Montana, USA) developed a 600 m thick mylonite zone, with well-developed transitions from protomylonite to ultramylonite. The localization of deformation relates directly to the intensity of feldspar hydration, a major rock- softening metamorphic reaction. Bulk-rock analyses of the mylonitic series indicate lateral mass transfer in the mylonite (no volume change), and significant volume loss in ultramylonite. The hydrogen isotope composition of phyllosilicates shows (1) the presence of an initial magmatic/metamorphic source characterized by the granodiorite in which a magmatic, and gneissic (protomylonite) foliation developed, and (2) a meteoric source that buffers the values of phyllosilicates in mylonite, ultramylonite, cataclasite, and deformed and undeformed quartz veins. The mineral oxygen isotope compositions were buffered by the host-rock compositions until chloritization of biotite started; the chlorite oxygen isotope values are negative (-10 per mil). Isotope thermometry indicates a temperature of isotopic equilibrium of the granodiorite between 600-500°C, between 500-300°C in the mylonite, and between 300 and 200°C for brittle fabrics (cataclasite and quartz veins). Results from this work suggest a general model for fluid-rock-strain feedbacks in detachment systems that are permeated by meteoric fluids. Phyllosilicates have preserved in their hydrogen isotope values evidence for the interaction between rock and meteoric fluids during mylonite development. Fluid flow generates mass transfer along the tectonic anisotropy, and mylonites do not undergo significant volume change, except locally in ultramylonite zones. Hydration of detachment shear zones attends mechanical grain size reduction and enhances strain softening and localization. Self-exhuming detachment shear zones evolve rapidly (a few million years) through the transition from ductile to brittle, which is partly controlled by the thermal effect of circulating surface fluids. Detachment systems are zones in the crust where strain and fluid flow are coupled; these systems. evolve rapidly toward strain localization and therefore efficient exhumation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ DE LA THÈSE Les teneurs des amphiboles en éléments majeurs et en isotopes stables ont été analysées dans plusieurs complexes ignés alcalins et hyperalcalins, dans le but de déterminer l'importance des variations de composition des minéraux pour le fractionnement isotopique de l'hydrogène dans un système naturel minéral-magma-fluide. Cette étude se concentre principalement sur les syénites néphéliniques de complexes intrusifs alcalins bien connus mais à chimie variable, dont les amphiboles, ainsi que d'autres silicates hydratés tels que micas et eudialytes, lorsque cela était possible, ont été séparés. L'intérêt principal s'est porté sur le complexe alcalin d'Ilímaussaq de la Province du Gardar, au Sud du Groenland. Dans une optique de comparaison, nous avons collecté et analysé d'autres échantillons provenant du complexe de Tugtutôq (Sud Groenland), des complexes de Khibina et Lovozero (Péninsule de Kola, Russie), du Mont St-Hilaire et du Mont Royal (Canada) et de 6 autres du nord-ouest de la Namibie (Cape Cross, Okenyenya, Messum, Etaneno, Kalkfeld,et Okorusu). Les compositions isotopiques de l'hydrogène des amphiboles des ces différentes zones présentent de grandes variations (-227 à -700/00), ce qui est atypique pour des magmas d'origine mantellique. Les valeurs comprises entre -80 et -400/00 indiquent une provenance du manteau. Ces larges variations de compositions ainsi que l'extrême appauvrissement en isotope lourd de l'hydrogène (D), en comparaison avec d'autres roches ignées, semblent être propres.aux roches alcalines et hyperalcalines de ce type, ce qui indiquerait un processus commun. Les différents complexes alcalins choisis présentent un large intervalle de composition chimique des amphiboles. La caractérisation des amphiboles par microscopie électronique et par spectroscopie Mössbauer contribuent à observer le contrôle du Fe sur le fractionnement des isotopes de l'hydrogène. En effet, cela a mis en évidence un contrôle du Fe sur le fractionnement et même, dans le cas du complexe hyperalcalin d'Ilímaussaq, une relation entre le rapport Fei3+/FeT et les variations du rapport D/H. Les complexes étudiés diffèrent de par leur index agpaïtique (Na+K/Al) et également de par leur contenu en fer. Les plus hautes valeurs en Fe (27-35 wt%) et en éléments alcalins dans les amphiboles, ainsi que les teneurs de D/H les plus basses et leur grande variation, sont celles du complexe d'Ilímaussaq. Les amphiboles de la Péninsule de Kola et du Canada sont similaires, mais toutefois moins appauvries en D. En ce qui concerne les amphiboles des complexes du NO de la Namibie, elles présentent des compositions isotopiques de l'hydrogène magmatiques normales (-73 à -100 0/00), contiennent moins de Fe (15-17 wt%) et sont fortement enrichies en Ca et moins en Na. Dans ce cas, l'alcalinité est moins importante en comparaison des autres complexes étudiés. En dehors des teneurs en éléments alcalins des amphiboles, l'alcalinité des fluides s'avère également un facteur important, ce qui est cohérent avec certaines suggestions à partir de systèmes expérimentaux. Afin de mieux contraindre ce facteur, des expériences d'échanges hydrothermaux entre les amphiboles et les fluides de salinité différente ont été effectuées en simulant des conditions naturelles. L'approximation d'amphiboles naturelles de complexes ignés alcalins, couplée aux expériences d'échange, aide à préciser les facteurs contrôlant le fractionnement des isotopes de l'hydrogène dans les roches alcalines. Les valeurs extrêmement basses de 3D des amphiboles de ces complexes alcalins peuvent être dues à une combinaison de différents facteurs, telles qu'une haute alcalinité, une haute teneur en Fe et une faible profondeur d'intrusion. Les grandes variations ainsi que les faibles valeurs de SD des amphiboles étudiées peuvent résulter d'un processus magmatique interne et il est peu probable que de l'eau météorique soit impliquée et/ou que le dégazage magmatique ait joué un rôle. THESIS ABSTRACT Major element and stable isotope compositions of amphiboles were analyzed from a number of alkaline and peralkaline igneous complexes in order to determine the importance of compositional variations in minerals to hydrogen isotope fractionations in natural mineral-melt-fluid systems. The thesis mainly focuses on nepheline syenites of well-studied, but chemically variable alkaline intrusive rocks, from which amphiboles and, if possible, other hydrous silicates such as micas and eudialytes were separated. The system of primary interest was the alkaline Ilímaussaq Complex of the Gardar Province of South Greenland. For the purpose of comparison additional samples were collected and examined from the Tugtutôq Complex (South Greenland), the Khibina and Lovozero Complexes (Kola Peninsular, Russia), Mount St-Hilaire and Mount Royal (Canada) and six further complexes from NW Namibia (Cape Cross, Okenyenya, Messum, Etaneno, Kalkfeld, and Okorusu). The hydrogen isotope compositions of amphiboles from the localities studied differ greatly, which is atypical for amphiboles from mantle, range between - 227 and - 700/00 (latter compatible with a simple mantle origin). As this wide range in compositions and the extreme depletion in the heavy hydrogen isotope (D) content relative to other igneous rocks appear to be unique to alkaline to peralkaline rocks of this type, a common process is indicated. The different alkaline complexes chosen cover a wide range of amphibole chemical compositions. Detailed chemical characterization of amphiboles by electron microprobe and Mössbauer spectroscopy analyses helped to constrain the control of Fe on the H-isotope fractionations. Complete characterization of the chemical compositions of the amphiboles support Fe-control on fractionations and at least for the peralkaline Ilímaussaq complex a relationship between Fe3+/FeT ratios and variations in D/H. The studied complexes differ in their agpaitic index (Na+K/Al) and also in their Fe-content. The most iron (27-35 wt. %) and alkaline element rich amphiboles, with the lowermost D/H ratio, as well with very wide range, are the ones from Ilímaussaq complex. Similar, but less D depleted amphiboles are from the Kola Peninsula and the Canadian localities. The complexes described from NW Namibia have amphiboles with normal magmatic hydrogen isotope composition (-730/00 to -1000/00), and have less Fe-content (15-17 wt. %), and are more Ca-and less Na-rich. In this case alkalinity is not that important in comparison to the other studied complexes. Beside the alkaline element contents in the amphiboles, the alkalinity of the fluids has been found to be an important factor, in conjunction with earlier suggestions from experimental systems. To further constrain this factor, hydrothermal exchange experiments between amphiboles and fluids of different salinity simulating natural conditions were performed. The approach of examining natural amphiboles from alkaline igneous complexes in parallel to performing exchange experiments - helped to further constrain the factors controlling the H-isotope fractionations in alkaline rocks. The observed changes between the hydrogen and oxygen isotope compositions of amphiboles and fluids before and after the experiments suggest that another phase was produced during the experiments, which influenced the final hydrogen isotope composition of the system. This presumably hydrous phase has also influenced the Fe3 +/Fe2+ ratio of the amphiboles, which became more oxidized. The extremely low SD values of amphiboles in these alkaline complexes may be due to a combination of different factors such as high alkalinity, high Fe-content, and shallow intrusion depths. This wide range and the low SD values of the amphiboles studied might be a result of internal, magmatic processes and it is unlikely that meteoric water was involved and/or magmatic degassing played an important role. RÉSUMÉ DE LA THÈSE (pour le grand public) Fractionnement isotopique de l'hydrogène entre amphiboles, micas et fluides dans des intrusions alcalines Zsófia Wáczek Directeur de thèse, Prof. Torsten W. Vennemann Institut de Minéralogie et Géochimie, Université de Lausanne Les roches alcalines et celles qui leurs sont associées sont des sources importantes de nombreux minéraux et minerais, tels l'apatite, le niobium, le diamant et autres pierres précieuses. Cette étude se concentre sur des complexes alcalins localisés dans le sud du Groenland, au Canada, dans la péninsule de Kola en Russie et au nord-ouest de la Namibie. Ces complexes sont composés de roches ayant cristallisé à partir de magmas et de fluides très enrichis en alcalins. Cet enrichissement permet la précipitation de minéraux inhabituels riches en potassium et/ou sodium, telles les amphiboles sodiques, également enrichies en fer. Les amphiboles étudiées ont des compositions calciques, sodi-calciques et sodiques, qui reflètent leurs différents environnements de formation. Des études précédentes ont révélé une large gamme de rapports isotopiques de l'hydrogène dans les amphiboles de roches hyperalcalines, dont certains extrêmement bas. Cette variation importante est très intrigante, sachant que des valeurs entre -40 et -800/00 correspondent à des silicates ignés hydratés et non altérés, alors que des valeurs descendant jusqu'a -1500/00 nécessiteraient une altération par de l'eau météorique et/ou une contamination par les roches environnantes ou des sédiments riches en matière organique. Dans lé cas précis du complexe d'Ilímaussaq (sud du Groenland), aucune de ces explications n'a pu être démontrée et des valeurs encore plus faibles ont été trouvées. Le complexe d'Ilímaussaq présente des valeurs de rapport isotopique de l'hydrogène entre -227 et -500/00 dans les amphiboles. Une origine mantellique permet d'expliquer les valeurs élevées, mais d'autres processus doivent entrer en jeu pour engendrer les valeurs les plus négatives. C'est à l'identification de ces processus que nous nous sommes attachés dans ce travail. Les grandes variations observées dans les teneurs en fer et dans le rapport Fe3+/FeT des roches et des minéraux de ces complexes sont corrélées avec d'autres paramètres chimiques, tels que la composition isotopique de l'hydrogène dans les amphiboles. Nous avons dès lors abordé les questions suivantes: quelle est la relation entre la teneur en fer des amphiboles et leur composition isotopique? Que nous apprennent les changements de la teneur en fer et les changements dans le rapport Fe3+/FeT sur les processus pétrologiques dans ces roches? Pour répondre à ces questions, nous avons analysé les compositions isotopiques de l'oxygène et de l'hydrogène dans les amphiboles et d'autres silicates hydratés. La composition chimique et le rapport Fe3+/FeT des amphiboles ont également été déterminés. Des expériences hydrothermales simulant des conditions naturelles ont été entreprises afin de mieux comprendre les processus de fractionnement isotopiques dans ces systèmes très alcalins. Nos conclusions sont les suivantes: (1) Les valeurs extrêmement faibles ainsi que les larges variations des rapports isotopiques de l'hydrogène des amphiboles de ces complexes alcalins sont dues à une combinaison de facteurs tels que la forte alcalinité, la haute teneur en fer et la profondeur très faible de l'intrusion. (2) Ces valeurs sont probablement le résultat de processus magmatiques internes. (3) Il est peu probable que les eaux météoriques et/ou le dégazage magmatique aient joué un rôle lors de la formation de ces amphiboles. (4) Certaines corrélations, en accord avec les études précédentes, ont pu être trouvées au niveau des concentrations en fer. (5) Dans le cas du complexe d'Ilímaussaq exclusivement, une relation a été trouvée entre le rapport Fe3+/FeT et la composition isotopique de l'hydrogène des amphiboles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les investigations dans le milieu des accidents de la circulation sont très complexes. Elles nécessitent la mise en oeuvre d'un grand nombre de spécialités venant de domaines très différents. Si certains de ces domaines sont déjà bien exploités, d'autres demeurent encore incomplets et il arrive de nos jours d'observer des lacunes dans la pratique, auxquelles il est primordial de remédier.Ce travail de thèse, intitulé « l'exploitation des traces dans les accidents de la circulation », est issu d'une réflexion interdisciplinaire entre de multiples aspects des sciences forensiques. Il s'agit principalement d'une recherche ayant pour objectif de démontrer les avantages découlant d'une synergie entre les microtraces et l'étude de la dynamique d'un accident. Afin de donner une dimension très opérationnelle à ce travail, l'ensemble des démarches entreprises a été axé de manière à optimiser l'activité des premiers intervenants sur les lieux.Après une partie introductive et ayant trait au projet de recherche, traitant des aspects théoriques de la reconstruction d'une scène d'accident, le lecteur est invité à prendre connaissance de cinq chapitres pratiques, abordés selon la doctrine « du général au particulier ». La première étape de cette partie pratique concerne l'étude de la morphologie des traces. Des séquences d'examens sont proposées pour améliorer l'interprétation des contacts entre véhicules et obstacles impliqués dans un accident. Les mécanismes de transfert des traces de peinture sont ensuite étudiés et une série de tests en laboratoire est pratiquée sur des pièces de carrosseries automobiles. Différents paramètres sont ainsi testés afin de comprendre leur impact sur la fragilité d'un système de peinture. Par la suite, une liste de cas traités (crash-tests et cas réels), apportant des informations intéressantes sur le traitement d'une affaire et permettant de confirmer les résultats obtenus est effectuée. Il s'ensuit un recueil de traces, issu de l'expérience pratique acquise et ayant pour but d'aiguiller la recherche et le prélèvement sur les lieux. Finalement, la problématique d'une banque de données « accident », permettant une gestion optimale des traces récoltées est abordée.---The investigations of traffic accidents are very complex. They require the implementation of a large number of specialties coming from very different domains. If some of these domains are already well exploited, others remain still incomplete and it happens nowadays to observe gaps in the practice, which it is essential to remedy. This thesis, entitled "the exploitation of traces in traffic accidents", arises from a multidisciplinary reflection between the different aspects of forensic science. It is primarily a research aimed to demonstrate the benefits of synergy between microtrace evidence and accidents dynamics. To give a very operational dimension to this work, all the undertaken initiatives were centred so as to optimise the activity of the first participants on the crime scene.After an introductory part treating theoretical aspects of the reconstruction of an accident scene the reader is invited to get acquainted with five practical chapters, according to the doctrine "from general to particular". For the first stage of this practical part, the problem of the morphology of traces is approached and sequences of examinations are proposed to improve the interpretation of the contacts between vehicles and obstacles involved in an accident. Afterwards, the mechanisms of transfer of traces of paint are studied and a series of tests in laboratory is practised on pieces of automobile bodies. Various parameters are thus tested to understand their impact on the fragility of a system of paint. It follows that a list of treated cases (crash-tests and real cases) is created, allowing to bring interesting information on the treatment of a case and confirm the obtained results. Then, this work goes on with a collection of traces, stemming from the acquired experience that aims to steer the research and the taking of evidence on scenes. Finally, the practical part of this thesis ends with the problem of a database « accident », allowing an optimal management of the collected traces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME: Introduction: A Lausanne, les prises en charge en traitement des toxicodépendants sont très majoritairement réalisées par les médecins généralistes en pratique privée. En complémentarité, un centre public universitaire spécialisé a été créé en 1996, le Centre St. Martin (CSM). Les traitements additionnels proposés répondent à une logique de niveaux et séquences de soins. L'orientation des patients sur les structures extérieures en place se réalise dès que possible. Cependant les filières de soins empruntées par ces patients et à fortiori leur évolution suite à leur décharge du CSM restent peu connues. But de la thèse: Le but de cette enquête est de décrire et analyser les filières de soins réalisées par les patients pris en charge au CSM et caractériser les évolutions clinique et sociale qu'ils réalisent depuis leur orientation initiale vers le réseau de soins extérieur. Patients et méthode: Les caractéristiques médico-sociales d'une cohorte de 73 patients reçus consécutivement durant 6 mois (1.7.99 - 31.12.99) avec une demande et une indication de traitement de substitution à la méthadone, ont été établies. L'évolution clinique et l'observance au traitement à 36 ± 3 mois de cette cohorte ont ensuite été mesurées. Résultats: La population de patients pris en charge au CSM présente des caractéristiques médico-psycho¬sociales très précaires avec une polytoxicodépendance par voie intraveineuse pour 56.2 °A des cas. 64.4% sont par ailleurs sans formation, 49.3 % sans logement stable. Une comorbidité psychiatrique est présente dans une large majorité des cas. 62 patients (84.9 %) sur le total étudié de 73 indications consécutives à un traitement de substitution à base de méthadone, ont été retrouvés à 3 ans ± 3 mois de leur début de prise en charge au CSM. Leurs évolutions clinique et psychosociale sont satisfaisantes pour tous les paramètres étudiés et ce, quelle que soit l'option initialement choisie du cadre de soins, en institution publique ou en pratique médicale privée. Ils restent intégrés dans un réseau de soins. Les patients polyconsommateurs par voie intraveineuse d'une combinaison d'héroïne, cocaïne et/ou benzodiazépines (52.5 %), malgré leur faible motivation, parviennent à accéder à un programme structuré : la moitié d'entre eux accepte à un moment donné de leur prise en charge leur admission dans une structure résidentielle. Pour la cohorte étudiée, ces patients représentent 83.3 % des admissions dans ce type de structure. Conclusions: Un programme institutionnel spécialisé, orienté sur la construction d'une complémentarité avec le réseau médico-social en place peut réaliser une rétention et une évolution clinique, en termes de consommations illicites, de psychopathologie et d'intégration sociale, satisfaisantes des patients dans la chaîne thérapeutique. L'orientation dans le réseau médico-social extérieur, chez les médecins praticiens, n'est pas délétère. L'évolution de ces patients diffère peu à 3 ans de celle des patients accueillis et maintenus dans la structure institutionnelle. Les processus de soins sont cependant différents d'un setting à l'autre et les épisodes thérapeutiques nombreux mais peu de patients sont « perdus de vue ». La définition de séquences, modalités et niveaux de soins en fonction des profils présentés par les patients toxicodépendants devrait permettre l'optimisation de la fonctionnalité du réseau médico-social en place.