13 resultados para Ibn al-Lunq, Abu l-Hasan (425-ca. 498)

em Université de Lausanne, Switzerland


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: Le curage ganglionnaire axillaire (CA) complémentaire en cas de micrométastase dans les ganglions sentinelles (GS) des cancers du sein (CS) n'est plus systématique depuis 2011 (Goldhirsch et al. Ann Oncol 2011;22:1736-47). En parallèle, plus de CS sont diagnostiqués à un stade précoce (N0) ; et l'échographie et la cytoponction/biopsie de ganglions axillaires en détectant des métastases en préopératoire permettent une meilleure sélection des patientes pour la procédure du GS. Ces évolutions amènent à réévaluer le rôle de l'examen extemporané des GS (EE). Objectif: Notre but était d'observer l'évolution de la pratique du CA en lien avec les résultats des EE (par cytologie +/- coupe congelée) entre 2011 et 2012 dans notre Centre. Méthode: Pour les 79 patientes dont le CS invasif a été classé pN > 0 en 2011 et 2012 (38 et 41 cas, 25 et 35% des cancers invasifs), nous avons comparé 1/ les taux de CA réalisés : au total; d'emblée (sans GS) ; après résultat positif de l'EE en 1 temps ; et en 2 temps opératoires ; et 2/ les taux d'abstention de CA en cas de GS positif. Résultats: En 2012 par rapport à 2011, bien que les différences ne soient pas significatives, on observe une tendance à la baisse des taux de CA : au total (18,8 vs 26,8%, p=0,24) ; d'emblée (12,8 vs 16,7%, p=0,49) ; après GS (7,3 vs 12,1%, p=0,27) ; en 1 temps opératoire (6,3 vs 9,7%, p=0,46) ; en 2 temps 53 (1,0 vs 2,4%, p=0,63). Les taux d'abstention de CA en cas de GS positif (pN > 0) étaient de 63% en 2012 (12/19, dont 13 pN1mi) vs 0% en 2011(p=0.0001). Discussion : Les effets conjoints du diagnostic précoce des CS, des performances de l'imagerie du creux axillaire et de l'abstention de CA en cas de micrométastases résultent en une tendance à la réduction du nombre de CA réalisés après procédure du GS. Dans cette série, le défaut de sensibilité de l'EE (par une méthode morphologique) pour la détection des micrométastases a permis dans 12/13 cas en 2012 de décider d'une abstention de CA lors de la réunion de concertation pluridisciplinaire. Conclusion: Si les tendances observées sur ces deux années se confirment, le bénéfice de l'EE des GS devra à terme être ré-évalué.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

1. ABSTRACTS - RÉSUMÉSSCIENTIFIC ABSTRACT - ENGLISH VERSIONGeometry, petrology and growth of a shallow crustal laccolith: the Torres del Paine Mafi c Complex (Patagonia)The Torres del Paine intrusive complex (TPIC) is a composite mafic-granitic intrusion, ~70km2, belonging to a chain of isolated Miocene plutons in southern Patagonia. Their position is intermediate between the Mesozoic-Cenozoic calc-alkaline subduction related Patagonian batholith in the West and the late Cenozoic alkaline basaltic back-arc related plateau lavas in the East. The Torres del Paine complex formed during an important reconfiguration of the Patagonian geodynamic setting, with a migration of magmatism from the arc to the back-arc, possibly related to the Chile ridge subductionThe complex intruded the flysch of the Cretaceous Cerro Toro and Punta Barrosa Formations during the Miocene, creating a well-defined narrow contact aureole of 200-400 m width.In its eastern part, the Torres del Paine intrusive complex is a laccolith, composed of a succession of hornblende-gabbro to diorite sills at its base, with a total thickness of ~250m, showing brittle contacts with the overlying granitic sills, that form spectacular cliffs of more than 1000m. This laccolith is connected, in the western part, to its feeding system, with vertical alternating sheets of layered gabbronorite and Hbl-gabbro, surrounded and percolated by diorites. ID-TIMS U-Pb on zircons on feeder zone (FZ) gab- bros yield 12.593±0.009Ma and 12.587±0.009Ma, which is identifcal within error to the oldest granite dated so far by Michel et al. (2008). In contrast, the laccolith mafic complex is younger than than the youngest granite (12.50±0.02Ma), and has been emplaced from 12.472±0.009Ma to 12.431 ±0.006Ma, by under-accretion beneath the youngest granite at the interface with previously emplaced mafic sills.The gabbronorite crystallization sequence in the feeder zone is dominated by olivine, plagioclase, clinopyroxene and orthopyroxene, while amphibole forms late interstitial crystals. The crystallization sequence is identical in Hornblende-gabbro from the feeder zone, with higher modal hornblende. Gabbronorite and Hornblende-gabbro both display distinct Eu and Sr positive anomalies. In the laccolith, a lower Hornblende-gabbro crystallized in sills and evolved to a high alkali shoshonitic series. The Al203, Ti02, Na20, K20, Ba and Sr composition of these gabbros is highly variable and increases up to ~50wt% Si02. The lower hornblende-gabbro is characterized by kaersutite anhedral cores with inclusions of olivine, clino- and orthopyroxene and rare apatite and An70 plagioclase. Trace element modelling indicates that hornblende and clinopyroxene are in equilibrium with a liquid whose composition is similar to late basaltic trachyandesitic dikes that cut the complex. The matrix in the lower hornblende gabbro is composed of normally zoned oligoclase, Magnesio-hornblende, biotite, ilmenite and rare quartz and potassium feldspar. This assemblage crystallized in-situ from a Ba and Sr-depleted melts. In contrast, the upper Hbl-gabbro is high-K calc-alkaline. Poikilitic pargasite cores have inclusions of euhedral An70 plagioclase inclusions, and contain occasionally clinopyroxene, olivine and orthopyroxene. The matrix composition is identical to the lower hornblende-gabbro and similar to the diorite. Diorite bulk rock compositions show the same mineralogy but different modal proportions relative to hornblende-gabbrosThe Torres del Paine Intrusive Complex isotopic composition is 87Sr/86Sr=0.704, 143Nd/144Nd=0.5127, 206Pb/204Pb=18.70 and 207Pb/204Pb=15.65. Differentiated dioritic and granitic units may be linked to the gabbroic cumulates series, with 20-50% trapped interstitial melt, through fractionation of olivine-bearing gabbronorite or hornblende-gabbro fractionation The relative homogeneity of the isotopic compositions indicate that only small amounts of assimilation occurred. Two-pyroxenes thermometry, clinopyroxene barometry and amphibole-plagioclase thermometry was used to estimate pressure and temperature conditions. The early fractionation of ultramafic cumulates occurs at mid to lower crustal conditions, at temperatures exceeding 900°C. In contrast, the TPIC emplacement conditions have been estimated to ~0.7±0.5kbar and 790±60°C.Based on field and microtextural observations and geochemical modelling, fractionation of basaltic-trachyandesitic liquids at intermediate to lower crustal levels, has led to the formation of the Torres del Paine granites. Repetitive replenishment of basaltic trachy- andesitic liquid in crustal reservoirs led to mixed magmas that will ascend via the feeder zone, and crystallize into a laccolith, in the form of successive dioritic and gabbroic sills. Dynamic fractionation during emplacement concentrated hornblende rich cumulates in the center of individual sills. Variable degrees.of post-emplacement compaction led to the expulsion of felsic liquids that preferentially concentrated at the top of the sills. Incremental sills amalgamation of the entire Torres del Paine Intrusive Complex has lasted for ~160ka.RESUME SCIENTIFIQUE - VERSION FRANÇAISEGéométrie, pétrologie et croissance d'un laccolite peu profond : Le complexe ma- fique du Torres del Paine (Patagonie)Le Complexe Intrusif du Torres del Paine (CITP) est une intrusion bimodale, d'environ 70km2, appartenant à une chaîne de plutons Miocènes isolés, dans le sud de la Patago-nie. Leur position est intermédiaire entre le batholite patagonien calco-alcalin, à l'Ouest, mis en place au Mesozoïque-Cenozoïque dans un contexte de subduction, et les basal-tes andésitiques et trachybasaltes alcalins de plateau, plus jeune, à l'Est, lié à l'ouverture d'un arrière-arc.A son extrémité Est, le CITP est une succession de sills de gabbro à Hbl et de diorite, sur une épaisseur de ~250m, avec des évidences de mélange. Les contacts avec les sills de granite au-dessus, formant des parois de plus de 1000m, sont cassants. Ce laccolite est connecté, dans sa partie Ouest, à une zone d'alimentation, avec des intrusions sub-ver- ticales de gabbronorite litée et de gabbro à Hbl, en alternance. Celles-ci sont traversées et entourées par des diorites. Les zircons des gabbros de la zone d'alimentation, datés par ID-TIMS, ont cristallisés à 12.593±0.009Ma et 12.587±0.009Ma, ce qui correspond au plus vieux granite daté à ce jour par Michel et al. (2008). A l'inverse, les roches manques du laccolite se sont mises en place entre 12.472±0.009Ma et 12.431 ±0.006Ma, par sous-plaquage successifs à l'interface avec le granite le plus jeune daté à ce jour (12.50±0.02Ma).La séquence de cristallisation des gabbronorites est dominée par Ol, Plg, Cpx et Opx, alors que la Hbl est un cristal interstitiel. Elle est identique dans les gabbros à Hbl de la zone d'alimentation, avec ~30%vol de Hbl. Les gabbros de la zone d'alimentation montrent des anomalies positives en Eu et Sr distinctes. Dans le laccolite, le gabbro à Hbl inférieur évolue le long d'une série shoshonitique, riche en éléments incompatibles. Sa concentration en Al203, Ti02, Na20, K20, Ba et Sr est très variable et augmente rapide-ment jusqu'à ~50wt% Si02. Il est caractérisé par la présence de coeurs résorbés de kaer- sutite, entourés de Bt, et contenant des inclusions d'OI, Cpx et Opx, ou alors d'Ap et de rares Plg (An70). Hbl et Cpx ont cristallisés à partir d'un liquide de composition similaire aux dykes trachy-andesite basaltique du CITP. La matrice, cristallisée in-situ à partir d'un liquide pauvre en Ba et Sr, est composée d'oligoclase zoné de façon simple, de Mg-Hbl, Bt, llm ainsi que de rares Qtz et KF. Le gabbro à Hbl supérieur, quant à lui, appartient à une suite chimique calco-alcaline riche en K. Des coeurs poecilitiques de pargasite con-tiennent de nombreuses inclusions de Plg (An70) automorphe, ainsi que des Ol, Cpx et Opx. La composition de la matrice est identique à celle des gabbros à Hbl inférieurs et toutes deux sont similaires à la minéralogie des diorites. Les analyses sur roches totales de diorites montrent la même variabilité que celles de gabbros à Hbl, mais avec une ten-eur en Si02 plus élevée.La composition isotopique des liquides primitifs du CITP a été mesurée à 87Sr/86Sr=0.704, 143Nd/144Nd=0.5127, 206Pb/204Pb=18.70 et 207Pb/204Pb=15.65. Les granites et diorites différenciés peuvent être reliés à des cumulais gabbronoritiques (F=0.74 pour les granites et F=1-0.5 pour les diorites) et gabbroïques à Hbl (fractionnement supplémentaire pour les granites, avec F=0.3). La cristallisation de 20 à 50%vol de liquide interstitiel piégé dans les gabbros du CITP explique leur signature géochimique. Seules de faibles quantités de croûte continentale ont été assimilées. La température et la pression de fractionnement ont été estimées, sur la base des thermobaromètres Opx-Cpx, Hbl-Plg et Cpx, à plus de 900°C et une profondeur correspondant à la croûte inférieure-moyenne. A l'inverse, les conditions de cristallisation de la matrice des gabbros et diorites du laccolite ont été estimées à 790±60°C et ~0.7±0.5kbar.Je propose que les liquides felsiques du CITP se soient formés par cristallisation frac-tionnée en profondeur des assemblages minéralogiques observés dans les gabbros du CITP, à partir d'un liquide trachy-andesite basaltique. La percolation de magma dans les cristaux accumulés permet la remontée du mélange à travers la zone d'alimentation, vers le laccolite, où des sills se mettent en place successivement. L'amalgamation de sills dans le CITP a duré ~160ka.Le CITP s'est formé durant une reconfiguration importante du contexte géodynamique en Patagonie, avec un changement du magmatisme d'arc vers un volcanisme d'arrière- arc. Ce changement est certainement lié à la subduction de la ride du Chili.RESUME GRAND PUBLIC - VERSION FRANÇAISEGéométrie, pétrologie et croissance d'une chambre magmatique peu profonde : Le complexe mafique du Torres del Paine (Patagonie)Le pourtour de l'Océan Pacifique est caractérisé par une zone de convergence de plaques tectoniques, appelée zone de subduction, avec le plongement de croûte océa-nique sous les Andes dans le cas de la Patagonie. De nombreux volcans y sont associés, formant la ceinture de feu. Mais seuls quelques pourcents de tout le magma traversant la croûte terrestre parviennent à la surface et la majeure partie cristallise en profondeur, dans des chambres magmatiques. Quelles est leur forme, croissance, cristallisation et durée de vie ? Le complexe magmatique du Torres del Paine représente l'un des meilleurs endroits au monde pour répondre à ces questions. Il se situe au sud de la Patagonie, formant un massif de 70km2. Des réponses peuvent être trouvées à différentes échelles, variant de la montagne à des minéraux de quelques 1000ème de millimètres.Il est possible de distinguer trois types de roches : des gabbros et des diorites sur une épaisseur de 250m, surmontées par des parois de granite de plus de 1000m. Les contacts entre ces roches sont tous horizontaux. Entre granites et gabbro-diorite, le contact est net, indiquant que le second magma s'est mis en place au contact avec un magma plus ancien, totalement solidifié. Entre gabbros et diorites, les contacts sont diffus, souvent non-linéaires, indiquant à l'inverse la mise en contact de magmas encore partiellement liquides. Dans la partie Ouest de cette chambre magmatique, les contacts entre roches sont verticaux. Il s'agit certainement du lieu de remplissage de la chambre magmatique.Lors du refroidissement d'un magma, différents cristaux vont se former. Leur stabilité et leur composition varient en fonction de la pression, de la température ou de la chimie du magma. La séquence de cristallisation peut être définie sur la base d'observations microscopiques et de la composition chimique des minéraux. Différents gabbros sont ainsi distingués : le gabbro à la base est riche en hornblende, d'une taille de ~5mm, sans inclusion de plagioclase mais avec des cristaux d'olivine, clinopyroxene et orthopyroxene inclus ; le gabbro supérieur est lui-aussi riche en hornblende (~5mm), avec les mêmes inclusions additionnées de plagioclase. Ces cristaux se sont formés à une température supérieure à 900°C et une profondeur correspondant à la croûte moyenne ou inférieure. Les minéraux plus fin, se trouvant hors des cristaux de hornblende des deux gabbros, sont similaires à ceux des diorites : plagioclase, biotite, hornblende, apatite, quartz et feldspath alcalin. Ces minéraux sont caractéristiques des granites. Ils ont cristallisé à ~790°C et ~2km de profondeur.La cristallisation des minéraux et leur extraction du magma par gravité provoque un changement progressif de la composition de ce dernier. Ainsi, après extraction d'olivine et d'orthopyroxene riches en Mg, de clinopyroxene riche en Ca, de plagioclase riche en Ca et Al et d'hornblende riche en Ca, Al et Mg, le liquide final sera appauvri en ces élé-ments. Un lien peut ainsi être proposé entre les diorites dont la composition est proche du liquide de départ, les granites dont la composition est similaire au liquide final, et les gabbros dont la minéralogie correspond aux minéraux extraits.L'utilisation de zircons, un minéral riche en U dont les atomes se transforment en Pb par décomposition radioactive au cours de millions d'années, permet de dater le refroidissement des roches qui les contiennent. Ainsi, il a été observé que les roches de la zone d'alimentation, à l'Ouest du complexe magmatique, ont cristallisés il y a 12.59±0.01 Ma, en même temps que les granites les plus vieux, se trouvant au sommet de la chambre magmatique, datés par Michel et al. (2008). Les deux roches pourraient donc avoir la même origine. A l'inverse, les gabbros et diorites de la chambre magmatique ont cristallisé entre 12.47±0.01Ma et 12.43±0.01Ma, les roches les plus vieilles étant à la base.En comparant la composition des roches du Torres del Paine avec celles d'autres en-tités géologiques de Patagonie, les causes du magmatisme peuvent être recherchées. A l'Ouest, on trouve en effet des intrusions granitiques, plus anciennes, caractéristiques de zones de convergence de plaque tectonique, alors qu'à l'Est, des laves basaltiques plus jeunes sont caractéristiques d'une dynamique d'extension. Sur la base des compositions chimiques des roches de ces différentes entités, l'évolution progressive de l'une à l'autre a pu être démontrée. Elle est certainement due à l'arrivée d'une dorsale océanique (zone d'extension crustale et de création de croûte océanique par la remontée de magma) dans la zone de subduction, le long des Andes.Je propose que, dans un premier temps, des magmas granitiques sont remontés dans la chambre magmatique, laissant d'importants volumes de cristaux dans la croûte pro-fonde. Dans un second épisode, les cristaux formés en profondeur ont été transportés à travers la croûte continentale, suite au mélange avec un nouveau magma injecté. Ces magmas chargés de cristaux ont traversé la zone d'alimentation avant de s'injecter dans la chambre magmatique. Différents puises ont été distingués, injectés dans la chambre magmatique du sommet à la base concernant les granites, puis à la base du granite le plus jeune pour les gabbros et diorites. Le complexe magmatique du Torres del Paine s'est construit sur une période totale de 160'000±20'000 ans.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce travail a pour objectif d'étudier l'évolution du métier de médecin de premier recours à la lumière du réel de son activité. Afin de pallier les lacunes de la littérature, nous proposons d'investiguer les perceptions et les pratiques rapportées de médecins de premier recours, considérant leur activité comme située dans un contexte spécifique. Un cadre théorique multiréférencé, intégrant les apports de Bischoff (2012), de la théorie de l'activité (Engeström et al., 1999), de l'ergonomie (Daniellou, 1996 ; Falzon, 2004a; Leplat, 1997) et de certains courants de la psychologie du travail (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) permet de tenir compte de la complexité du travail des médecins de premier recours. Une méthodologie mixte, alliant une approche qualitative par entretiens semi-structurés (n=20) à une approche quantitative par questionnaire (n=553), a été développée. Les résultats de l'analyse thématique des entretiens mettent en évidence trois thèmes majeurs : l'Evolution du métier (Thème 1), caractérisé par les changements perçus, les demandes des populations qui consultent et les paradoxes et vécus des médecins ; les Ajustements et supports (Thème 2) mis en place par les médecins pour faire face aux changements et aux difficultés de leur métier ; les Perceptions et les attentes par rapport au métier (Thème 3), mettant en avant des écarts perçus entre la formation et la réalité du métier. La partie quantitative permet de répondre aux questionnements générés à partir des résultats qualitatifs et de généraliser certains d'entre eux. Suite à l'intégration des deux volets de l'étude, nous présentons une nouvelle modélisation du métier de médecin de premier recours, soulignant son aspect dynamique et évolutif. Cette modélisation rend possible l'analyse de l'activité réelle des médecins, en tenant compte des contraintes organisationnelles, des paradoxes inhérents au métier et du vécu des médecins de premier recours. L'analyse des limites de cette étude ouvre à de nouvelles perspectives de recherche. A l'issue de ce travail, nous proposons quelques usages pragmatiques, qui pourront être utiles aux médecins de premier recours et aux médecins en formation, non seulement dans la réalisation de leur activité, mais également pour le maintien de leur équilibre et leur épanouissement au sein du métier. - This study aims to investigate the evolution of primary care physicians' work, in the light of the reality of their activity. In order to overcome the limitations of the literature, we propose to focus on primary care physicians' reported perceptions and practices, considering their activity as situated in a specific context. The theoretical framework refers to Bischoff (2012), Activity theory (Engeström et al., 1999), ergonomy (Daniellou, 1996; Falzon, 2004a; Leplat, 1997) and work psychology (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) and enables to take into account the complexity of primary care physicians' work. This mixed methods study proposes semi-structured interviews (n=20) and a questionnaire (n=553). Thematic analysis of interviews points out three major themes : Evolution of work (Theme 1) is characterised by perceived changes, patients' expectations and paradoxes ; Adjustments and supports (Theme 2), that help to face changes and difficulties of work ; Perceptions related to work, including differences between work reality as represented during medical education/training and actual work reality. Quantitative part of the study enables to answer questions generated from qualitative results and to generalise some of them. Integration of qualitative and quantitative results leads to a new modelling of primary care physicians ' work, that is dynamic and evolutionary. This modelling is useful to analyse the primary care physicians' activity, including organisational constraints, paradoxes of work and how primary care physicians are experiencing them. Despite its limitations, this study offers new research perspectives. To conclude, we state pragmatic recommendations that could be helpful to primary care physicians in private practice and junior doctors, in order to realise their activity, to maintain their balance and to sustain their professional fulfilment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'état de mal épileptique est une condition médicale sévère fréquemment rencontrée dont la mortalité est importante. Son traitement représente donc une urgence médicale. Il a déjà été démontré par des études bien conduites (Treiman et al., 1998) que l'administration de benzodiazépines est efficace en première intention. Or, 35-45% des états de mal échappent à ce traitement et malheureusement, les données scientifiques concernant le traitement de deuxième ligne sont nettement moins consistantes. Par ailleurs, si le rôle pronostique des caractéristiques de l'état de mal (type de crise, étiologie, état de conscience, âge du patient) sont connues (Rossetti et al., 2006), (Neligan and Shorvon, 2011), le rôle des comorbidités n'a reçu que peu d'attention à ce Dans la première partie de ce travail publiée dans Epilepsia (Alvarez et al., 2011) nous nous sommes intéressé au traitement de deuxième ligne et principalement aux trois substances les plus prescrites : la phénytoine (PHT), le valproate (VPA) et plus récemment le lévétiracetam (LEV). A ce jour, aucune étude n'avait comparé l'efficacité de ces substances pourtant largement utilisées. Ainsi, afin de savoir lequel ces anti-épileptiques utilisés en 2ème ligne est le plus efficace, nous avons extrait de notre base de données regroupant tout les états de mal épileptiques traités au Centre Hospitalier Universitaire Vaudois, tous les épisodes durant lesquelles le traitement par benzodiazépines à échoué (187 épisodes). Nous avons ensuite comparé les différentes caractéristiques cliniques et les différents outcomes de trois groupes de patients (ceux qui ont reçu de la PHT, du VPA ou du LEV). Nous avons pu mettre ainsi en évidence certaines différences d'efficacité inconnues jusqu'alors entre le VPA et le LEV, impliquant une certaine prudence face à l'emploi grandissant de ce dernier. La seconde partie de notre publiée dans Epilepsia (Alvarez et al., 2012) s'est portée sur les facteurs pronostiques de l'état de mal et plus précisément sur le rôle joué par les comorbidités. En utilisant la même base de données, nous avons pu démontrer que le pronostique d'un état de mal est très majoritairement influencé par l'étiologie et l'âge et que les comorbidités ne jouent qu'un rôle marginal. La présence de comorbidités n'impliquant pas forcément une mauvaise issue, la fragilité de certains patients ne doit pas dissuader les cliniciens à traiter adéquatement ces patients souffrant d'une condition aussi sévère qu'un état de mal épileptique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The epithelial sodium channel (ENaC) regulates the sodium reabsorption in the collecting duct principal cells of the nephron. ENaC is mainly regulated by hormones such as aldosterone and vasopressin, but also by serine proteases, Na+ and divalent cations. The crystallization of an ENaC/Deg member, the Acid Sensing Ion Channel, has been recently published but the pore-lining residues constitution of ENaC internal pore remains unclear. It has been reported that mutation aS589C of the selectivity filter on the aENaC subunit, a three residues G/SxS sequence, renders the channel permeant to divalent cations and sensitive to extracellular Cd2+. We have shown in the first part of my work that the side chain of aSer589 residue is not pointing toward the pore lumen, permitting the Cd2+ to permeate through the ion pore and to coordinate with a native cysteine, gCys546, located in the second transmembrane domain of the gENaC subunit. In a second part, we were interested in the sulfhydryl-reagent intracellular inhibition of ENaC-mediated Na+ current. Kellenberger et al. have shown that ENaC is rapidly and reversibly inhibited by internal sulfhydryl reagents underlying the involvement of intracellular cysteines in the internal regulation of ENaC. We set up a new approach comprising a Substituted Cysteine Analysis Method (SCAM) using intracellular MTSEA-biotin perfusion coupled to functional and biochemical assays. We were thus able to correlate the cysteine-modification of ENaC by methanethiosulfonate (MTS) and its effect on sodium current. This allowed us to determine the amino acids that are accessible to intracellular MTS and the one important for the inhibition of the channel. RESUME : Le canal épithélial sodique ENaC est responsable de la réabsorption du sodium dans les cellules principales du tubule collecteur rénal. Ce canal est essentiellement régulé par voie hormonale via l'aldostérone et la vasopressine mais également par des sérines protéases, le Na+ lui-même et certains cations divalents. La cristallisation du canal sodique sensible au pH acide, ASIC, un autre membre de la famille ENaC/Deg, a été publiée mais les acides aminés constituant le pore interne d'ENaC restent indéterminés. Il a été montré que la mutation aS589C du filtre de sélectivité de la sous-unité aENaC permet le passage de cations divalents et l'inhibition du canal par le Cd2+ extracellulaire. Dans un premier temps, nous avons montré que la chaîne latérale de la aSer589 n'est pas orientée vers l'intérieur du pore, permettant au Cd2+ de traverser le canal et d'interagir avec une cysteine native du second domaine transrnembranaire de la sous-unité γENaC, γCys546. Dans un second temps, nous nous sommes intéressés au mécanisme d'inhibition d'ENaC par les réactifs sulfhydryl internes. Kellenberger et al. ont montré l'implication de cystéines intracellulaires dans la régulation interne d'ENaC par les réactifs sulfhydryl. Nous avons mis en place une nouvelle approche couplant la méthode d'analyse par substitution de cystéines (SCAM) avec des perfusions intracellulaires de MTSEAbiotine. Ainsi, nous pouvons meure en corrélation les modifications des cystéines d'ENaC par les réactifs methanethiosulfonates (MTS) avec leur effet sur le courant sodique, et donc mettre en évidence les acides aminés accessibles aux MTS intracellulaires et ceux qui sont importants dans la fonction du canal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction Actuellement, les projets européens concernant l'harmonisation des méthodes de profilage se concentrent principalement sur les drogues de type synthétique telles que les ecstasy et les dérivés de la phényléthylamine [Aalberg L. et al. 2005, Aalberg L. et al. 2005, SMT Project 2001, CHAMP Project 2003]. Néanmoins, d'après le rapport annuel 2005 de l'Agence Européenne des Drogues (EMCDDA), la cocaïne est devenue un élément majeur du paysage européen des stupéfiants. De même, les dernières statistiques de l'Office Fédéral de la Police Suisse montrent que les saisies de cocaïne ont quasiment doublé entre 2003 et 2004 pour atteindre des quantités jamais vues auparavant. Le 7ème programme cadre européen, pour la recherche et le développement technologique, propose d'ailleurs un sujet concernant «la détermination et le pistage des composés utilisés lors de la production de certaines substances ». La cocaïne est donc devenue un thème prioritaire en Europe et l'utilisation des méthodes de profilage est un moyen puissant pour établir des liens entre des saisies. Les méthodes de profilage de la cocaïne sont utilisées par quelques laboratoires mais il y a peu ou quasiment pas d'échange d'informations aussi bien concernant les données obtenues que les méthodes utilisées afin d'améliorer la lutte contre le trafic de stupéfiants. Aucune recherche relative à l'harmonisation des méthodes entre deux laboratoires n'a été réalisée à ce jour. Le projet Interreg IIIA avait pour objectif de fournir du renseignement forensique en matière de stupéfiants, plus précisément dans ce cas à la frontière franco-suisse. Le processus de profilage repose sur deux phases interconnectées. La première est consacrée au développement de la méthode analytique permettant l'extraction d'une signature chimique (alcaloïdes et autres composés d'origine, solvants, produits de coupage) ou physique (conditionnement) du produit illicite. La seconde se focalise sur l'intégration des résultats dans un but d'utilisation par les forces de police. Cette recherche s'est tout d'abord focalisée sur le profilage des alcaloïdes en optimisant et en validant la méthode analytique élaborée à l'IPS sur un même GC-FID [Guéniat O. 2004 et Esseiva P. 2004]. Ensuite, la méthode a été étendue à une comparaison de spécimens analysés sur deux appareils différents. Finalement, afin de tester les résultats obtenus par l'analyse des alcaloïdes, une méthode indépendante, la Statique Headspace couplée à un GC-FID, a été, utilisée pour le profilage des solvants. En effet, de nombreux solvants sont utilisés lors de la production de la cocaïne et il doit donc aussi, a priori, être possible d'établir des liens sur la base de cette analyse. Les informations fournies par ces deux méthodes ainsi que leur complémentarité ont été investiguées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME L'utilisation de la thérapie génique dans l'approche d'un traitement des maladies oculaires dégénératives, plus particulièrement de la rétinite pigmentaire, semble être très prometteuse (Acland et al. 2001). Parmi les vecteurs développés, les vecteurs lentiviraux (dérivé du virus humain HIV-1), permettent la transduction des photorécepteurs après injection sous-rétinienne chez la souris durant les premiers jours de vie. Cependant l'efficacité du transfert de gène est nettement plus limitée dans ce type cellulaire après injection chez l'adulte (Kostic et al. 2003). L'objet de notre étude est de déterminer si la présence d'une barrière physique produite au cours du développement, située entre les photorécepteurs et l'épithélium pigmentaire ainsi qu'entre les photorécepteurs eux-mêmes, est responsable de: la diminution de l'entrée en masse du virus dans les photorécepteurs, minimisant ainsi son efficacité chez la souris adulte. De précédentes recherches, chez le lapin, ont décrit la capacité d'enzymes spécifiques comme la Chondroïtinase ABC et la Neuraminidase X de modifier la structure de la matrice entourant les photorécepteurs (Inter Photoreceptor Matrix, IPM) par digestion de certains de ses constituants suite à leur injection dans l'espace sous-rétinien (Yao et al. 1990). Considérant l'IPM comme une barrière physique, capable de réduire l'efficacité de transduction des photorécepteurs chez la souris adulte, nous avons associé différentes enzymes simultanément à l'injection sous-rétinienne de vecteurs lentiviraux afin d'améliorer la transduction virale en fragilisant I'IPM, la rendant ainsi plus perméable à la diffusion du virus. L'injection sous-rétinienne de Neuraminidase X et de Chondroïtinase ABC chez la souris induit des modifications structurales de l'IPM qui se manifestent respectivement par la révélation ou la disparition de sites de liaison de la peanut agglutinin sur les photorécepteurs. L'injection simultanée de Neuraminidase X avec le vecteur viral contenant le transgène thérapeutique augmente significativement le nombre de photorécepteurs transduits (environ cinq fois). Nous avons en fait démontré que le traitement enzymatique augmente principalement la diffusion du lentivirus dans l'espace situé entre l'épithélium pigmentaire et les photorécepteurs. Le traitement à la Chondroïtinase ABC n'entraîne quant à elle qu'une légère amélioration non significative de la transduction. Cette étude montre qu'une meilleure connaissance de l'IPM ainsi que des substances capables de la modifier (enzymes, drogues etc.) pourrait aider à élaborer de nouvelles stratégies afin d'améliorer la distribution de vecteurs viraux dans la rétine adulte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[Table des matières] Technology assessment in health care in the United States: an historical review / S. Perry. - The aims and methods of technology assessment / JH Glasser. - Evaluation des technologies de la santé / A. Griffiths. - Les données nécessaires pour l'évaluation des technologies médicales / R. Chrzanowski, F. Gutzwiller, F. Paccaud. - Economic issues in technology assessment/DR Lairson, JM Swint. - Two decades of experience in technology assessment: evaluating the safety, performance, and cost effectiveness of medical equipment / JJ Nobel. - Demography and technology assessment / H. Hansluwka. - Méthodes expérimentale et non expérimentale pour l'évaluation des innovations technologiques / R. Chrzanowski, F. Paccaud. - Skull radiography in head trauma: a successful case of technology assessment / NT Racoveanu. - Complications associées à l'anesthésie: une étude prospective en France / L. Tiret et al. - Impact de l'information publique sur les taux opératoires: le cas de l'hystérectomie / G. Domenighetti, P. Luraschi, A. Casabianca. - The clinical effectiveness of acupuncture for the relief of chronic pain / MS Patel, F. Gutzwiller, F. Paccaud, A. Marazzi. - Soins à domicile et hébergement à long terme: à la recherche d'un développement optimum / G. Tinturier. - Economic evaluation of six scenarios for the treatment of stones in the kidney and ureter by surgery or ESWL / MS Patel et al. - Technology assessment and medical practice / F. Gutzwiller. - Technology assessment and health policy / SJ Reiser. - Global programme on appropriate technology for health, its role and place within WHO / K. Staehr Johansen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : L'amygdale latérale (AL) joue un .rôle essentiel dans la plasticité synaptique à la base du conditionnement de la peur. Malgré le faite que la majorité des cellules de l'AL reçoivent les afférentes nécessaires, une potentialisation dans seulement une partie d'entre elles est obligatoire afin que l'apprentissage de la peur ait lieu. Il a été montré que ces cellules expriment la forme active de CREB, et celui-ci a été associé aux cellules dites de type 'nonaccomrnodating' (nAC). Très récemment, une étude a impliqué les circuits récurrents de l'AL dans le conditionnement de la peur. Un lien entre ces deux observations n'a toutefois jamais été établi. t Nous avons utilisé un protocole in vitro de forte activation de l'AL, résultant dans l'induction de 'bursts' provenant de l'hippocampe et se propageant jusqu'à l'AL. Dans l'AL ces 'bursts' atteignent toutes les cellules et se propagent à travers plusieurs chemins. Utilisant ce protocole, nous avons, pour la première fois pu associer dans l'AL, des cellules connectées de manière récurrente avec des cellules de type nAC. Aussi bien dans ces dernières que dans les cellules de type 'accommodating' (AC), une diminution dans la transmission inhibitrice, à la fois exprimée de manière pré synaptique mais également indépendant de la synthèse de protéine a pu être observé. Au contraire, une potentialisation induite et exprimée au niveau pré synaptique ainsi que dépendante de la synthèse de protéine a pu être trouvé uniquement dans les cellules de type nAC. De plus, une hyperexcitabilité, dépendante des récepteurs NMDA a pu être observé, avec une sélection préférentielle des cellules du type nAC dans la génération de bursts. Nous avons également pu démontrer que la transformation d'un certain nombre de cellules de type AC en cellules dites nAC accompagnait cette augmentation générale de l'excitabilité de l'AL. Du faite da la grande quantité d'indices suggérant une connexion entre le système noradrénergique et les états de peur/d'anxiété, les effets d'une forte activation de l'AL sur ce dernier ont été investigués et ont révélés une perte de sa capacité de modulation du 'spiking pattern'. Finalement, des changements au niveau de l'expression d'un certain nombre de gènes, incluant celui codant pour le BDNF, a pu être trouvé à la suite d'une forte activation de l'AL. En raison du lien récemment décrit entre l'expression de la forme active de CREB et des cellules de type nAC ainsi que celui de l'implication des cellules de l'AL connectés de manière récurrente dans l'apprentissage de la peur, nos résultats nous permettent de suggérer un modèle expliquant comment la potentialisation des connections récurrentes entre cellules de type nAC pourrait être à la base de leur recrutement sélectif pendant le conditionnement de la peur. De plus, ils peuvent offrir des indices par rapport aux mécanismes à travers lesquels une sous population de neurones peut être réactivée par une stimulation externe précédemment inefficace, et induire ainsi un signal suffisamment fort pour qu'il soit transmit aux structures efférentes de l'AL. Abstract : The lateral nucleus of the amygdala (LA) is critically involved in the plasticity underlying fear-conditioned learning (Sah et al., 2008). Even though the majority of cells in the LA receive the necessary sensory inputs, potentiation in only a subset is required for fear learning to occur (Repa et al., 2001; Rumpel et al., 2005). These cells express active CREB (CAMP-responsive element-binding protein) (Han et al., 200, and this was related to the non-accommodating (nAC) spiking phenotype (Viosca et al., 2009; Zhou et al., 2009). In addition, a very recent study implicated recurrently connected cells of the LA in fear conditioned learning (Johnson et al., 2008). A link between the two observations has however never been made. In rats, we used an in vitro protocol of strong activation of the LA, resulting in bursting activity, which spread from the hippocampus to the LA. Within the LA, this activity reached all cells and spread via a multitude of pathways. Using this model, we were able to link, for the first time, recurrently connected cells in the LA with cells of the nAC phenotype. While we found a presynaptically expressed, protein synthesis independent decrease in inhibitory synaptic transmission in both nAC and accommodating (AC) cells, only nAC cells underwent a presynaptically induced and expressed, protein synthesis dependent potentiation. Moreover we observed an NMDA dependent hyperexcitability of the LA, with a preferential selection of nAC cells into burst generation. The transformation of a subset of AC cells into nAC cells accompanied this general increase in LA excitability. Given the considerable evidence suggesting a relationship between the central noradrenergic (NA) system and fear/anxiety states (Itoi, 2008), the effects of strong activation of the LA on the noradrenergic system were investigated, which revealed a loss of its modulatory actions on cell spiking patterns. Finally, we found changes in the expression levels of a number of genes; among which the one coding for $DNF, to be induced by strong activation of the LA. In view of the recently described link between nAC cells and expression of pCREB (phosphorylated cAMP-responsive element-binding protein) as well as the involvement of recurrently connected cells of the LA in fear-conditioned learning, our findings may provide a model of how potentiation of recurrent connections between nAC neurons underlies their recruitment into the fear memory trace. Additionally, they may offer clues as to the mechanisms through which a selected subset of neurons can be reactivated by smaller, previously ineffective external stimulations to respond with a sufficiently strong signal, which can be transmitted to downstream targets of the LA.