963 resultados para Outil prédictif
Resumo:
Suite à trois années de concertation, le Département de l'instruction publique du canton de Genève a mis en place un « nouveau fonctionnement » de l'enseignement primaire à la rentrée scolaire de septembre 2008. La mise en oeuvre du nouveau dispositif était accompagnée de la création d'un outil d'évaluation externe appelé « Observatoire du fonctionnement de l'enseignement primaire ». L'analyse de cet outil d'évaluation fait l'objet du présent article. La problématique développée vise à montrer que, si l'expertise en matière d'évaluation de l'éducation n'est pas la science, elle peut toutefois être modestement fondée sur les valeurs de la production des connaissances, voire contribuer à quelque production de connaissances limitées aux « hypothèses mineures qui jaillissent chaque jour à foison dans le travail quotidien de la recherche » (Merton, 1965, pp. 13-14).
Resumo:
« Un jour viendra où le principal avantage d'apprendre la médecine sera de se protéger contre les médecins ». Cette phrase de Jacques Ferron illustre bien le sentiment que certain-e-s patient-e-s cultivent à l'égard du corps médical, une confiance en les connaissances fournies par la science, mais une méfiance envers ceux chargés de les transmettre. La pilule contraceptive en est certainement l'emblème. Ce médicament apparu il y a maintenant 52 ans, fait depuis son apparition l'objet de débats intenses. Débats tant sociaux que médicaux. Aujourd'hui, la contraception orale est devenue la forme de contraception la plus utilisée dans le monde occidental mais malgré sont succès, elle reste toujours au centre des débats. Toutefois le contexte, les préoccupations et même la pilule ont changés. Le contexte actuel pousse les femmes à prendre la pilule, pour diverses raisons, soit personnelles, sociales, médicales ou commerciales. D'un côté elle est présentée comme la contraception « idéale », comme l'outil permettant à une femme d'avoir une vie sexuelle et professionnelle « libérée » avec un rapport risques- bénéfices optimal et de l'autre côté les femmes se posent des questions face à une pilule qui doit être prise quotidiennement et souvent à long terme. Une pilule dont elles entendent régulièrement parler dans les médias comme véhiculant un danger camouflé par un complot pharmaco-médical. Parfois commencée à un jeune âge, lorsque l'on est plus tout à fait enfant et loin d'être femme, ce contraceptif accompagne leurs premières aventures sexuelles et leurs premiers pas dans leur processus de construction en tant que femme. Mais très vite la pilule pose de nombreuses questions. Parce que les copines en parlent, parce que les médias en parlent, parce qu'elles ont l'impression d'avoir prit du poids, d'avoir une baisse de libido, d'être plus triste. Les médecins parlent d'un médicament peu dangereux, avec peu d'effets secondaires, mais elles ne se sentent pas rassurées. Parce que partout on nous dit que la pilule peut être dangereuse. Il y a ce reportage sur cette fille qui a fait un AVC, il y a cette amie qui portera un collant (bas à compression) à vie, il y a cet article qui dit que les poissons changent de sexe à cause des oestrogènes de leur pilule. Il y a ce sentiment que l'on ne leur dit pas tout.
Resumo:
Introduction : Le cancer de la vessie est la 4ème cause de cancer en Europe, chez l'homme. Dans 70% des¦cas, le diagnostic initial de cancer transitionnel de la vessie est non-musculo invasif mais jusqu'à 45%¦progresseront en tumeur musculo-invasive selon des facteurs de risques qui ont été scorés par¦l'Organisation européenne de recherche sur le traitement du cancer (EORTC). Après résection¦endoscopique transuréthrale vésicale (RTUV) de la tumeur, une instillation intravésicale (ives) d'agents¦chimiothérapeutiques ou d'immunomodulateurs tel que le Bacille Calmette Guérin (BCG) permet de¦réduire les récurrences/progressions. Cependant l'utilisation du BCG est limitée aux patients avec un risque¦de progression haut et intermédiaire au vu des effets secondaires occasionnés. Le système immunitaire¦joue un rôle certain dans l'évolution d'un processus néoplasique. Toutefois, les cancers adoptent différents¦mécanismes pour supprimer la réponse antitumorale. La variation de l'environnement immunologique¦tumoral pourrait avoir une valeur pronostique pour l'évolution naturelle de la maladie. Le but de notre¦étude est d'utiliser des coupes paraffines archivées de RTUV afin de définir l'environnement immunitaire¦des carcinomes urothéliaux non musculo-invasifs, en particulier les caractéristiques immunosuppressives,¦comme prédictif d'un comportement de progression néoplasique.¦Méthodologie : L'exploration d'une base de données de patients suivis pour le cancer de la vessie au¦CHUV afin de faire un choix des coupes de RTUV à examiner a été réalisée. Une approche transversale a été¦abordée en regroupant des patients de stades tumoraux différents ou en évaluant des foyers tumoraux¦multiples au sein de la vessie d'un même patient à un moment donné (i.e lors d'une même RTUV). Une¦approche longitudinale a également été adoptée avec comme objectif de comparer, chez le même patient,¦des tumeurs de stades, de grades et de score de risque de progression de l'EORTC différents au cours du¦temps. L'ARN des tissus de RTUV fixés au formol et enrobés en paraffine a été extrait et purifié. Un kit¦d'amplification en temps réel par réaction en chaîne par polymérase (RCP) pour 84 gènes impliqués dans¦l'anergie des cellules T et la tolérance immunitaire a été utilisé.¦Résultat : Nous avons réuni les informations cliniques de 157 sujets atteints de tumeur vésicale non¦musculo-invasive. 35% des sujets ont reçu une chimiothérapie ives et 40 % ont reçu du BCG ives. Les troisquarts¦de ces derniers ont reçu un cycle de BCG complet (6 semaines). Néanmoins, 38 % d'entre eux vont¦tout de même subir une progression de leur cancer. Les scores de progression de l'EORTC ont pu être¦calculés pour 94 sujets (39% haut risque, 42 % risque intermédiaire et 19% bas risque). 76% des patients à¦haut risque a été traité avec du BCG ives. Parmi les patients avec un risque intermédiaire de progression,¦seuls 15 % ont effectivement progressé incluant 2 patients avec des échantillons de RTUV disponibles pour¦analyse. L'analyse par RCP s'est focalisée sur une approche longitudinale incluant 6 patients suivis sur une¦longue période avec de multiples RTUV. 29 échantillons ont été sélectionnés, leur ARN purifiés, mais seuls¦16 ARN se sont révélés en quantité et qualité suffisante pour être analysé par RCP. L'analyse par RCP¦quantitative en temps réel a montré des problèmes dans la quantification de l'ADN génomique, ainsi que¦des gènes domestiques. Ceci a grandement handicapé nos analyses et n'a pas permis la mise en évidence¦convaincante de gènes immuno-modulateurs associés à la progression du cancer de la vessie.¦Discussion : Notre analyse du suivi des patients au CHUV montre que les chirurgiens façonnent leur prise¦en charge durant l'intervention selon des critères adaptés à la situation et tendent ainsi à une stratification¦des risques permettant un traitement adapté, de la même manière que le permet le score de l'EORTC, en¦tous cas en ce qui concerne les patients à haut risque de progression. Les nombreux facteurs impliqués¦dans le cancer de la vessie montrent néanmoins qu'il y aurait des avantages à rationaliser la prise en charge. L'archivage de tissus fixé au formol et enrobé en paraffine a l'avantage de représenter une source¦de matériel considérable et de grande valeur pour la recherche. Néanmoins, malgré l'évolution des¦techniques et la publicité des fabricants, il s'est avéré difficile d'exploiter ce matériel délicat pour en¦obtenir des résultats convaincants.
Resumo:
Contexte: la planification infirmière de sortie des personnes âgées est une composante importante des soins pour assurer une transition optimale entre l'hôpital et la maison. Beaucoup d'événements indésirables peuvent survenir après la sortie de l'hôpital. Dans une perspective de système de santé, les facteurs qui augmentent ce risque incluent un nombre croissant de patients âgés, l'augmentation de la complexité des soins nécessitant une meilleure coordination des soins après la sortie, ainsi qu'une augmentation de la pression financière. Objectif: évaluer si les interventions infirmières liées à la planification de sortie chez les personnes âgées et leurs proches aidants sont prédictives de leur perception d'être prêts pour le départ, du niveau d'anxiété du patient le jour de la sortie de l'hôpital et du nombre de recours non programmé aux services de santé durant les trente jours après la sortie. Méthode: le devis est prédictif corrélationnel avec un échantillon de convenance de 235 patients. Les patients âgés de 65 ans de quatre unités d'hôpitaux dans le canton de Vaud en Suisse ont été recrutés entre novembre 2011 et octobre 2012. Les types et les niveaux d'interventions infirmières ont été extraits des dossiers de soins et analysés selon les composantes du modèle de Naylor. La perception d'être prêt pour la sortie et l'anxiété ont été mesurées un jour avant la sortie en utilisant l'échelle de perception d'être prêt pour la sortie et l'échelle Hospital Anxiety and Depression. Un mois après la sortie, un entretien téléphonique a été mené pour évaluer le recours non programmé aux services de santé durant cette période. Des analyses descriptives et un modèle randomisé à deux niveaux ont été utilisés pour analyser les données. Résultats: peu de patients ont reçu une planification globale de sortie. L'intervention la plus fréquente était la coordination (M = 55,0/100). et la moins fréquente était la participation du patient à la planification de sortie (M = 16,1/100). Contrairement aux hypothèses formulées, les patients ayant bénéficié d'un plus grand nombre d'interventions infirmières de préparation à la sortie ont un niveau moins élevé de perception d'être prêt pour le départ (B = -0,3, p < 0,05, IC 95% [-0,57, -0,11]); le niveau d'anxiété n'est pas associé à la planification de sortie (r = -0,21, p <0,01) et la présence de troubles cognitifs est le seul facteur prédictif d'une réhospitalisation dans les 30 jours après la sortie de l'hôpital ( OR = 1,50, p = 0,04, IC 95% [1,02, 2,22]). Discussion: en se focalisant sur chaque intervention de la planification de sortie, cette étude permet une meilleure compréhension du processus de soins infirmiers actuellement en cours dans les hôpitaux vaudois. Elle met en lumière les lacunes entre les pratiques actuelles et celles de pratiques exemplaires donnant ainsi une orientation pour des changements dans la pratique clinique et des recherches ultérieures. - Background: Nursing discharge planning in elderly patients is an important component of care to ensure optimal transition from hospital to home. Many adverse events may occur after hospital discharge. From a health care system perspective, contributing factors that increase the risk of these adverse events include a growing number of elderly patients, increased complexity of care requiring better care coordination after discharge, as well as increased financial pressure. Aim: To investigate whether older medical inpatients who receive comprehensive discharge planning interventions a) feel more ready for hospital discharge, b) have reduced anxiety at the time of discharge, c) have lower health care utilization after discharge compared to those who receive less comprehensive interventions. Methods: Using a predictive correlational design, a convenience sample of 235 patients was recruited. Patients aged 65 and older from 4 units of hospitals in the canton of Vaud in Switzerland were enrolled between November 2011 and October 2012. Types and level of interventions were extracted from the medical charts and analyzed according to the components of Naylor's model. Discharge readiness and anxiety were measured one day before discharge using the Readiness for Hospital Discharge Scale and the Hospital Anxiety and Depression scale. A telephone interview was conducted one month after hospital discharge to asses unplanned health services utilization during this follow-up period. Descriptive analyses and a two- level random model were used for statistical analyses. Results: Few patients received comprehensive discharge planning interventions. The most frequent intervention was Coordination (M = 55,0/100) and the least common was Patient participation in the discharge planning (M = 16,1/100). Contrary to our hypotheses, patients who received more nursing discharge interventions were significantly less ready to go home (B = -0,3, p < 0,05, IC 95% [-0,57, -0,11]); their anxiety level was not associated with their readiness for hospital discharge (r = -0,21, p <0,01) and cognitive impairment was the only factor that predicted rehospitalization within 30 days after discharge ( OR = 1,50, p = 0,04, IC 95% [1,02, 2,22]). Discussion: By focusing on each component of the discharge planning, this study provides a greater and more detailed insight on the usual nursing process currently performed in medical inpatients units. Results identified several gaps between current and Best practices, providing guidance to changes in clinical practice and further research.
Resumo:
Résumé : Malgré les immenses progrès réalisés depuis plusieurs années en médecine obstétricale ainsi qu'en réanimation néonatale et en recherche expérimentale, l'asphyxie périnatale, une situation de manque d'oxygène autour du moment de la naissance, reste une cause majeure de mortalité et de morbidité neurologique à long terme chez l'enfant (retard mental, paralysie cérébrale, épilepsie, problèmes d'apprentissages) sans toutefois de traitement pharmacologique réel. La nécessité de développer de nouvelles stratégies thérapeutiques pour les complications de l'asphyxie périnatale est donc aujourd'hui encore essentielle. Le but général de ce travail est l'identification de nouvelles cibles thérapeutiques impliquées dans des mécanismes moléculaires pathologiques induits par l'hypoxie-ischémie (HI) dans le cerveau immature. Pour cela, le modèle d'asphyxie périnatale (proche du terme) le plus reconnu chez le rongeur a été développé (modèle de Rice et Vannucci). Il consiste en la ligature permanente d'une artère carotide commune (ischémie) chez le raton de 7 jours combinée à une période d'hypoxie à 8% d'oxygène. Il permet ainsi d'étudier les lésions de type hypoxique-ischémique dans différentes régions cérébrales dont le cortex, l'hippocampe, le striatum et le thalamus. La première partie de ce travail a abordé le rôle de deux voies de MAPK, JNK et p38, après HI néonatale chez le raton à l'aide de peptides inhibiteurs. Tout d'abord, nous avons démontré que D-JNKI1, un peptide inhibiteur de la voie de JNK présentant de fortes propriétés neuroprotectrices dans des modèles d'ischémie cérébrale adulte ainsi que chez le jeune raton, peut intervenir sur différentes voies de mort dont l'activation des calpaïnes (marqueur de la nécrose précoce), l'activation de la caspase-3 (marqueur de l'apoptose) et l'expression de LC3-II (marqueur de macroautophagie). Malgré ces effets positifs le traitement au D-JNKI1 ne modifie pas l'étendue de la lésion cérébrale. L'action limitée de D-JNKI1 peut s'expliquer par une implication modérée des JNKs (faiblement activées et principalement l'isotype JNK3) après HI néonatale sévère. Au contraire, l'inhibition de la voie de nNOS/p38 par le peptide DTAT-GESV permet une augmentation de 20% du volume du tissu sain à court et long terme. Le second projet a étudié les effets de l'HI néonatale sur l'autophagie neuronale. En effet, l'autophagie est un processus catabolique essentiel au bien-être de la cellule. Le type principal d'autophagie (« macroautophagie » , que nous appellerons par la suite « autophagie ») consiste en la séquestration d'éléments à dégrader (protéines ou organelles déficients) dans un compartiment spécialisé, l'autophagosome, qui fusionne avec un lysosome pour former un autolysosome où le contenu est dégradé par les hydrolases lysosomales. Depuis peu, l'excès ou la dérégulation de l'autoptiagie a pu être impliqué dans la mort cellulaire en certaines conditions de stress. Ce travail démontre que l'HI néonatale chez le raton active fortement le flux autophagique, c'est-à-dire augmente la formation des autophagosomes et des autolysosomes, dans les neurones en souffrance. De plus, la relation entre l'autophagie et l'apoptose varie selon la région cérébrale. En effet, alors que dans le cortex les neurones en voie de mort présentent des caractéristiques mixtes apoptotiques et autophagiques, ceux du CA3 sont essentiellement autophagiques et ceux du CA1 sont principalement apoptotiques. L'induction de l'autophagie après HI néonatale semble donc participer à la mort neuronale soit par l'enclenchement de l'apoptose soit comme mécanisme de mort en soi. Afin de comprendre la relation pouvant exister entre autophagie et apoptase un troisième projet a été réalisé sur des cultures primaires de neurones corticaux exposés à un stimulus apoptotique classique, la staurosporine (STS). Nous avons démontré que l'apoptose induite par la STS était précédée et accompagnée par une forte activation du flux autophagique neuronal. L'inhibition de l'autophagie de manière pharmacologique (3-MA) ou plus spécifiquement par ARNs d'interférence dirigés contre deux protéines autophagiques importantes (Atg7 et Atg5) a permis de mettre en évidence des rôles multiples de l'autophagie dans la mort neuronale. En effet, l'autophagie prend non seulement part à une voie de mort parallèle à l'apoptose pouvant être impliquée dans l'activation des calpaïnes, mais est également partiellement responsable de l'induction des voies apoptotiques (activation de la caspase-3 et translocation nucléaire d'AIF). En conclusion, ce travail a montré que l'inhibition de JNK par D-JNKI1 n'est pas un outil neuroprotecteur efficace pour diminuer la mort neuronale provoquée par l'asphyxie périnatalé sévère, et met en lumière deux autres voies thérapeutiques beaucoup plus prometteuses, l'inhibition de nNOS/p38 ou de l'autophagie. ABSTRACT : Despite enormous progress over the last«decades in obstetrical and neonatal medicine and experimental research, perinatal asphyxia, a situation of lack of oxygen around the time of the birth, remains a major cause of mortality and long term neurological morbidity in children (mental retardation, cerebral palsy, epilepsy, learning difficulties) without any effective treatment. It is therefore essential to develop new therapeutic strategies for the complications of perinatal asphyxia. The overall aim of this work was to identify new therapeutic targets involved in pathological molecular mechanisms induced by hypoxia-ischemia (HI) in the immature brain. For this purpose, the most relevant model of perinatal asphyxia (near term) in rodents has been developed (model of Rice and Vannucci). It consists in the permanent ligation of one common carotid artery (ischemia) in the 7-day-old rat combined with a period of hypoxia at 8% oxygen. This model allows the study of the hypoxic-ischemic lesion in different brain regions including the cortex, hippocampus, striatum and thalamus. The first part of this work addressed the role of two MAPK pathways (JNK and p38) after rat neonatal HI using inhibitory peptides. First, we demonstrated that D-JNKI1, a JNK peptide inhibitor presenting strong neuroprotective properties in models of cerebral ischemia in adult and young rats, could affect different cell death mechanisms including the activation of calpain (a marker of necrosis) and caspase-3 (a marker of apoptosis), and the expression of LC3-II (a marker of macroautophagy). Despite these positive effects, D-JNKI1 did not modify the extent of brain damage. The limited action of D-JNKI1 can be explained by the fact that JNKs were only moderately involved (weakly activated and principally the JNK3 isotype) after severe neonatal HI. In contrast, inhibition of nNOS/p38 by the peptide D-TAT-GESV increased the surviving tissue volume by around 20% at short and long term. The second project investigated the effects of neonatal HI on neuronal autophagy. Indeed, autophagy is a catabolic process essential to the well-being of the cell. The principal type of autophagy ("macroautophagy", that we shall henceforth call "autophagy") involves the sequestration of elements to be degraded (deficient proteins or organelles) in a specialized compartment, the autophagosome, which fuses with a lysosome to form an autolysosome where the content is degraded by lysosomal hydrolases. Recently, an excess or deregulation of autophagy has been implicated in cell death in some stress conditions. The present study demonstrated that rat neonatal HI highly enhanced autophagic flux, i.e. increased autophagosome and autolysosome formation, in stressed neurons. Moreover, the relationship between autophagy and apoptosis varies according to the brain region. Indeed, whereas dying neurons in the cortex exhibited mixed features of apoptosis and autophagy, those in CA3 were primarily autophagíc and those in CA1 were mainly apoptotic. The induction of autophagy after neonatal HI seems to participate in neuronal death either by triggering apoptosis or as a death mechanism per se. To understand the relationships that may exist between autophagy and apoptosis, a third project has been conducted using primary cortical neuronal cultures exposed to a classical apoptotic stimulus, staurosporine (STS). We demonstrated that STS-induced apoptosis was preceded and accompanied by a strong activation of neuronal autophagic flux. Inhibition of autophagy pharmacologically (3-MA) or more specifically by RNA interference directed against two important autophagic proteins (Atg7 and AtgS) showed multiple roles of autophagy in neuronal death. Indeed, autophagy was not only involved in a death pathway parallel to apoptosis possibly involved in the activation of calpains, but was also partially responsible for the induction of apoptotic pathways (caspase-3 activation and AIF nuclear translocation). In conclusion, this study showed that JNK inhibition by D-JNKI1 is not an effective neuroprotective tool for decreasing neuronal death following severe perinatal asphyxia, but highlighted two more promising therapeutic approaches, inhibition of the nNOSlp38 pathway or of autophagy.
Resumo:
Les décisions de gestion des eaux souterraines doivent souvent être justiffées par des modèles quantitatifs d'aquifères qui tiennent compte de l'hétérogénéité des propriétés hydrauliques. Les aquifères fracturés sont parmi les plus hétérogènes et très difficiles à étudier. Dans ceux-ci, les fractures connectées, d'ouverture millimètrique, peuvent agir comme conducteurs hydrauliques et donc créer des écoulements très localisés. Le manque général d'informations sur la distribution spatiale des fractures limite la possibilité de construire des modèles quantitatifs de flux et de transport. Les données qui conditionnent les modèles sont généralement spatialement limitées, bruitées et elles ne représentent que des mesures indirectes de propriétés physiques. Ces limitations aux données peuvent être en partie surmontées en combinant différents types de données, telles que les données hydrologiques et de radar à pénétration de sol plus commun ément appelé géoradar. L'utilisation du géoradar en forage est un outil prometteur pour identiffer les fractures individuelles jusqu'à quelques dizaines de mètres dans la formation. Dans cette thèse, je développe des approches pour combiner le géoradar avec les données hydrologiques affn d'améliorer la caractérisation des aquifères fracturés. Des investigations hydrologiques intensives ont déjà été réalisées à partir de trois forage adjacents dans un aquifère cristallin en Bretagne (France). Néanmoins, la dimension des fractures et la géométrie 3-D des fractures conductives restaient mal connue. Affn d'améliorer la caractérisation du réseau de fractures je propose dans un premier temps un traitement géoradar avancé qui permet l'imagerie des fractures individuellement. Les résultats montrent que les fractures perméables précédemment identiffées dans les forages peuvent être caractérisées géométriquement loin du forage et que les fractures qui ne croisent pas les forages peuvent aussi être identiffées. Les résultats d'une deuxième étude montrent que les données géoradar peuvent suivre le transport d'un traceur salin. Ainsi, les fractures qui font partie du réseau conductif et connecté qui dominent l'écoulement et le transport local sont identiffées. C'est la première fois que le transport d'un traceur salin a pu être imagé sur une dizaines de mètres dans des fractures individuelles. Une troisième étude conffrme ces résultats par des expériences répétées et des essais de traçage supplémentaires dans différentes parties du réseau local. En outre, la combinaison des données de surveillance hydrologique et géoradar fournit la preuve que les variations temporelles d'amplitude des signaux géoradar peuvent nous informer sur les changements relatifs de concentrations de traceurs dans la formation. Par conséquent, les données géoradar et hydrologiques sont complémentaires. Je propose ensuite une approche d'inversion stochastique pour générer des modèles 3-D de fractures discrètes qui sont conditionnés à toutes les données disponibles en respectant leurs incertitudes. La génération stochastique des modèles conditionnés par géoradar est capable de reproduire les connexions hydrauliques observées et leur contribution aux écoulements. L'ensemble des modèles conditionnés fournit des estimations quantitatives des dimensions et de l'organisation spatiale des fractures hydrauliquement importantes. Cette thèse montre clairement que l'imagerie géoradar est un outil utile pour caractériser les fractures. La combinaison de mesures géoradar avec des données hydrologiques permet de conditionner avec succès le réseau de fractures et de fournir des modèles quantitatifs. Les approches présentées peuvent être appliquées dans d'autres types de formations rocheuses fracturées où la roche est électriquement résistive.
Resumo:
La notion de « médiateurs » est moderne, mais elle apparaît néanmoins comme un objet et un outil de recherche intéressants pour d'autres périodes que la nôtre, car un « médiateur » est plus qu'un lien ou un intermédiaire passif. Par sa position médiane, le médiateur exerce une action susceptible d'opérer des échanges entre plusieurs cultures, ou bien de construire un dialogue entre plusieurs groupes sociaux ou politiques et, le cas échéant, d'éviter un conflit. Nous avons ainsi souhaité appliquer cette notion au cadre de l'Empire romain, caractérisé par la diversité identitaire. Quelles étaient les figures de médiateurs culturels et politiques au sein de cet Empire ? Pour quelles raisons certains voyageurs, intellectuels, athlètes et artistes, administrateurs, marchands etc., ont-ils été conduits à endosser ce rôle, consciemment ou inconsciemment ? Quels étaient leurs rapports avec le pouvoir romain et leurs marges de manoeuvre à l'égard des institutions ? Quelle était l'efficacité de leur action ? Pour répondre à ces questions et pour éprouver la pertinence de cette notion de « médiateurs », cet ouvrage réunit une série d'études portant sur différents types de médiateurs : « passeurs de culture », relais du pouvoir politique, acteurs de la régulation sociale et politique, que l'on peut trouver à l'oeuvre dans l'Empire de Rome, entre le IIe siècle av. J.-C. et le IVe siècle de notre ère. Ils sont analysés à partir de sources littéraires et épigraphiques.
Resumo:
Executive SummaryIn Nepal, landslides are one of the major natural hazards after epidemics, killing over 100 persons per year. However, this figure is an underreported reflection of the actual impact that landslides have on livelihoods and food security in rural Nepal. With predictions of more intense rainfall patterns, landslide occurrence in the Himalayas is likely to increase and continue to be one of the major impediments to development. Due to the remoteness of many localities and lack of resources, responsibilities for disaster preparedness and response in mountain areas usually lie with the communities themselves. Everyday life is full of risk in mountains of Nepal. This is why mountain populations, as well as other populations living in harsh conditions have developed a number of coping strategies for dealing with adverse situations. Perhaps due to the dispersed and remote nature of landslides in Nepal, there have been few studies on vulnerability, coping- and mitigation strategies of landslide affected populations. There are also few recommendations available to guide authorities and populations how to reduce losses due to landslides in Nepal, and even less so, how to operationalize resilience and vulnerability.Many policy makers, international donors, NGOs and national authorities are currently asking what investments are needed to increase the so-called 'resilience' of mountain populations to deal with climate risks. However, mountain populations are already quite resilient to seasonal fluctuations, temperature variations, rainfall patterns and market prices. In spite of their resilience, they continue to live in places at risk due to high vulnerability caused by structural inequalities: access to land, resources, markets, education. This interdisciplinary thesis examines the concept of resilience by questioning its usefulness and validity as the current goal of international development and disaster risk reduction policies, its conceptual limitations and its possible scope of action. The goal of this study is two-fold: to better define and distinguish factors and relationships between resilience, vulnerability, capacities and risk; and to test and improve a participatory methodology for evaluating landslide risk that can serve as a guidance tool for improving community-based disaster risk reduction. The objective is to develop a simple methodology that can be used by NGOs, local authorities and communities to reduce losses from landslides.Through its six case studies in Central-Eastern Nepal, this study explores the relation between resilience, vulnerability and landslide risk based on interdisciplinary methods, including geological assessments of landslides, semi-structured interviews, focus groups and participatory risk mapping. For comparison, the study sites were chosen in Tehrathum, Sunsari and Dolakha Districts of Central/Eastern Nepal, to reflect a variety of landslide types, from chronic to acute, and a variety of communities, from very marginalized to very high status. The study uses the Sustainable Livelihoods Approach as its conceptual basis, which is based on the notion that access and rights to resources (natural, human/institutional, economic, environmental, physical) are the basis for coping with adversity, such as landslides. The study is also intended as a contribution to the growing literature and practices on Community Based Disaster Risk Reduction specifically adapted to landslide- prone areas.In addition to the six case studies, results include an indicator based methodology for assessing and measuring vulnerability and resilience, a composite risk assessment methodology, a typology of coping strategies and risk perceptions and a thorough analysis of the relation between risk, vulnerability and resilience. The methodology forassessing vulnerability, resilience and risk is relatively cost-effective and replicable in a low-data environment. Perhaps the major finding is that resilience is a process that defines a community's (or system's) capacity to rebound following adversity but it does not necessarily reduce vulnerability or risk, which requires addressing more structural issues related to poverty. Therefore, conclusions include a critical view of resilience as a main goal of international development and disaster risk reduction policies. It is a useful concept in the context of recovery after a disaster but it needs to be addressed in parallel with vulnerability and risk.This research was funded by an interdisciplinary grant (#26083591) from the Swiss National Science Foundation for the period 2009-2011 and a seed grant from the Faculty of Geosciences and Environment at the University of Lausanne in 2008.Résumé en françaisAu Népal, les glissements de terrain sont un des aléas les plus dévastateurs après les épidémies, causant 100 morts par an. Pourtant, ce chiffre est une sous-estimation de l'impact réel de l'effet des glissements sur les moyens de subsistance et la sécurité alimentaire au Népal. Avec des prévisions de pluies plus intenses, l'occurrence des glissements dans les Himalayas augmente et présente un obstacle au développement. Du fait de l'éloignement et du manque de ressources dans les montagnes au Népal, la responsabilité de la préparation et la réponse aux catastrophes se trouve chez les communautés elles-mêmes. Le risque fait partie de la vie quotidienne dans les montagnes du Népal. C'est pourquoi les populations montagnardes, comme d'autres populations vivant dans des milieux contraignants, ont développé des stratégies pour faire face aux situations défavorables. Peu d'études existent sur la vulnérabilité, ceci étant probablement dû à l'éloignement et pourtant, les stratégies d'adaptation et de mitigation des populations touchées par des glissements au Népal existent.Beaucoup de décideurs politiques, bailleurs de fonds, ONG et autorités nationales se demandent quels investissements sont nécessaires afin d'augmenter la 'resilience' des populations de montagne pour faire face aux changements climatiques. Pourtant, ces populations sont déjà résilientes aux fluctuations des saisons, des variations de température, des pluies et des prix des marchés. En dépit de leur résilience, ils continuent de vivre dans des endroits à fort risque à cause des vulnérabilités créées par les inégalités structurelles : l'accès à la terre, aux ressources, aux marchés et à l'éducation. Cette thèse interdisciplinaire examine le concept de la résilience en mettant en cause son utilité et sa validité en tant que but actuel des politiques internationales de développement et de réduction des risques, ainsi que ses limitations conceptuelles et ses possibles champs d'action. Le but de cette étude est double : mieux définir et distinguer les facteurs et relations entre la résilience, la vulnérabilité, les capacités et le risque ; Et tester et améliorer une méthode participative pour évaluer le risque des glissements qui peut servir en tant qu'outil indicatif pour améliorer la réduction des risques des communautés. Le but est de développer une méthodologie simple qui peut être utilisée par des ONG, autorités locales et communautés pour réduire les pertes dues aux glissements.A travers les études de cas au centre-est du Népal, cette étude explore le rapport entre la résilience, la vulnérabilité et les glissements basée sur des méthodes interdisciplinaires ; Y sont inclus des évaluations géologiques des glissements, des entretiens semi-dirigés, des discussions de groupes et des cartes de risques participatives. Pour la comparaison, les zones d'études ont été sélectionnées dans les districts de Tehrathum, Sunsari et Dolakha dans le centre-est du Népal, afin de refléter différents types de glissements, de chroniques à urgents, ainsi que différentes communautés, variant de très marginalisées à très haut statut. Pour son cadre conceptuel, cette étude s'appuie sur l'approche de moyens de subsistance durable, qui est basée sur les notions d'accès et de droit aux ressources (naturelles, humaines/institutionnelles, économiques, environnementales, physiques) et qui sont le minimum pour faire face à des situations difficiles, comme des glissements. Cette étude se veut aussi une contribution à la littérature et aux pratiques en croissantes sur la réduction des risques communautaires, spécifiquement adaptées aux zones affectées par des glissements.En plus des six études de cas, les résultats incluent une méthodologie basée sur des indicateurs pour évaluer et mesurer la vulnérabilité et la résilience, une méthodologie sur le risque composé, une typologie de stratégies d'adaptation et perceptions des risques ainsi qu'une analyse fondamentale de la relation entre risque, vulnérabilité et résilience. Les méthodologies pour l'évaluation de la vulnérabilité, de la résilience et du risque sont relativement peu coûteuses et reproductibles dans des endroits avec peu de données disponibles. Le résultat probablement le plus pertinent est que la résilience est un processus qui définit la capacité d'une communauté (ou d'un système) à rebondir suite à une situation défavorable, mais qui ne réduit pas forcement la vulnérabilité ou le risque, et qui requiert une approche plus fondamentale s'adressant aux questions de pauvreté. Les conclusions incluent une vue critique de la résilience comme but principal des politiques internationales de développement et de réduction des risques. C'est un concept utile dans le contexte de la récupération après une catastrophe mais il doit être pris en compte au même titre que la vulnérabilité et le risque.Cette recherche a été financée par un fonds interdisciplinaire (#26083591) du Fonds National Suisse pour la période 2009-2011 et un fonds de préparation de recherches par la Faculté des Géosciences et Environnement à l'Université de Lausanne en 2008.
Resumo:
Rapport de synthèseObjectifsLe retard de croissance intrautérin (RCIU) est un problème affectant 10% des grossesses et est associé à une morbidité périnatale importante. Dans environ 80% des cas, une étiologie ou un facteur de risque majeur peuvent être identifiés. Mais près de 20% des cas sont considérés comme inexpliqués. La heat shock protéine 60kDa (HSP60) est une protéine fortement immunogène dont la synthèse est considérablement augmentée lors de conditions non- physiologiques. Les HSP60 humaines et bactériennes partagent un haut degré d'homologie de séquence ce qui peut engendrer une maladie auto-immune à la suite d'une infection bactérienne. Nous avons supposé que les RCIU inexpliqués pourraient être la conséquence d'une sensibilisation à l'HSP60 humaine.MéthodesLes RCIU inexpliqués ont été identifiés par mesure échographique avec un doppler normal, sans anomalies décelables chez la mère ou le foetus. Les sera foetaux ont été obtenus par cordocentèse, effectuée lors d'analyse du caryotype en cas de RCIU inexpliqué (groupe d'étude) ou pour le dépistage d'une incompatibilité Rhésus (groupe témoin). Ils ont été testés pour l'antigène HSP60 et les IgG et IgM anti-HSP60 par ELISA ainsi que pour d'autres paramètres immunitaires et hématologiques.RésultatsLes paramètres maternels sont similaires entre les 12 cas du groupe d'étude et les 23 cas du groupe contrôle. L'âge gestationnel moyen lors de la cordocentèse est de 29 semaines. Les IgM anti-HSP60 sont détectés dans 12 cas d'étude (100%) mais dans aucun cas contrôle (p <0,00017), les IgG anti-HSP60 dans 7 cas d'étude (58%) et un seul dans le groupe contrôle (p <0,001). Trois des quatre cas avec les taux d'IgM les plus élevés sont décédés. Il n'y a pas de différences entre les deux groupes quant aux taux d'antigène HSP60 ou d'autres marqueurs immunologiques ou hématologiques.ConclusionLes foetus avec un RCIU inexpliqué expriment un taux élevé d'anticorps IgM et IgG contre l'HSP60 humaine et le taux d'IgM est un facteur prédictif de la mortalité foetale. La détection de ces anticorps indique qu'une perturbation placentaire et une réaction auto-immune foetale liée à l'HSP60 sont associées à ce retard de développement chez le foetus.
Resumo:
Ce travail de thèse a été réalisé au sein de l'Unité de Thérapie Génique et Biologie des Cellules Souches de l'Hôpital Jules- Gonin dans le Service d'Ophtalmologie de l'Université de Lausanne. Ce laboratoire recherche des solutions thérapeutiques pour des maladies dégénératives et incurables de la rétine comme les rétinites pigmentaires (RP). Ayant déjà montré certains résultats dans le domaine, la thérapie génique a été notre outil pour ce travail. Cette méthode se base sur le principe de remplacer un gène déficient par sa copie normale, en transportant celle-ci au coeur même du noyau par un vecteur. Il existe à l'heure actuelle différents vecteurs. Un des plus efficaces est un vecteur viral non-réplicatif : le lentivirus, dérivé de HIV-1. Celui-ci a la capacité d'intégrer le génome de la cellule cible, lui conférant ainsi un nouveau matériel génétique. Notre but a été d'établir le tropisme du lentivirus dans une rétine en dégénérescence. Ce lentivirus est connu pour transduire efficacement les cellules de l'épithélium pigmentaire rétinien dans l'oeil adulte sain, ainsi que celles de la neurorétine, mais ce, uniquement durant le développement. On sait aussi que le vecteur lentiviral présente un tropisme différent selon les enveloppes dont il est muni ; par exemple, le lentivirus avec une enveloppe Mokola est connu pour transduire les cellules gliales du système nerveux central. La rétine qui dégénère montre quant à elle des changements de sa structure qui pourraient influencer la diffusion du vecteur et/ou son tropisme. Le postulat de base a été le suivant : chez l'adulte, la transduction des neurones de la rétine via le lentivirus pourrait être facilitée par l'altération de la membrane limitante externe induite par la dégénérescence (meilleure pénétrance du virus). D'un point de vue technique, nous avons utilisé deux types distincts de modèles murins de dégénérescence rétinienne : des souris Balb/C soumises à une dose toxique de lumière et les souris Rhodopsin knockout, animaux génétiquement modifiés. Comme vecteur viral, nous avons employé deux différents pseudotypes de lentivirus (caractérisés par les enveloppes virales) avec différents promoteurs (séquence d'ADN qui initie la transduction et confère la spécificité d'expression d'un gène). En changeant l'enveloppe et le promoteur, nous avons essayé de trouver la meilleure combinaison pour augmenter l'affinité du vecteur vis-à-vis des photorécepteurs d'abord, puis vis-à-vis d'autres cellules de la rétine. Nos résultats ont montré que la membrane limitante externe est effectivement altérée chez les deux modèles de dégénérescence, mais que cette modification ne favorise pas la transduction des photorécepteurs lorsqu'on utilise un vecteur lentiviral contenant une enveloppe VSVG et un promoteur photorécepteur-spécifique ou ubiquitaire. En effet, une forte réaction gliale a été observée. Par contre, en utilisant le lentivirus avec une enveloppe Mokola et un promoteur ubiquitaire, nous avons constaté une très bonne transduction au niveau des cellules de Millier dans la rétine en dégénérescence, phénomène non observé chez les souris sauvages. Ce travail a donc permis de trouver un vecteur viral efficace pour atteindre et transduire les cellules de Miiller, ceci seulement pendant la dégénérescence de la rétine. Ces cellules, une fois transduites, pourraient être utilisées pour sécréter dans la rétine des agents thérapeutiques tels que des facteurs neurotrophiques pour soutenir la survie des photorécepteurs ou des facteurs anti-angiogéniques pour prévenir la néo-vascularisation lors de diabète ou de dégénérescence maculaire liée à l'âge. - In normal mice, the lentiviral vector (LV) is very efficient to target the RPE cells, but transduces retinal neurons well only during development. In the present study, the tropism of LV has been investigated in the degenerating retina of mice, knowing that the retina structure changes during degeneration. We postulated that the viral transduction would be increased by the alteration of the iuter limiting membrane (OLM). Two different LV pseudotypes were tested using the VSVG arid the Mokola envelopes, as well as two animal models of retinal degeneration: light-damaged Balb-C and Rhodopsin knockout (Rho-/-) mice. After light damage, the OLM is altered and no significant increase of the number of transduced photoreceptors can be obtained with a LV-VSVG-Rhop-GFP vector. In the Rho-/- mice, an altération of the OLM was also observed, but the possibility of transducing photoreceptors was decreased, probably by ongoing gliosis. The use of a ubiquitous promoter allows better photoreceptor transduction, suggesting that photoreceptór-specific promoter activity change during late stages of photoreceptor degeneration. However, the number of targeted photoreceptors remains low. In contrast, LV pseudotyped with the tfokola envelope allows a wide dispersion of the ctor into the retina (corresponding to the injection bleb) with preferential targeting of Muller cells, a situation Mc\ does ot occur in the wild- type retina. Mokola-pseudotyped lentiviral vectors may serve to engineer these glial cells to deliver secreted therapeutic factors to a diseased area of the retina.
Resumo:
STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.
Resumo:
(Résumé de l'ouvrage) Où en est la situation de l'égalité entre femmes et hommes en Suisse ? S'achemine-t-on vers plus d'égalité ou assiste-t-on simplement à un déplacement des anciennes inégalités ? C'est à ces questions que cet ouvrage collectif veut répondre. Il est issu d'un colloque où furent présentées huit recherches conduites dans le cadre du programme national Les voies vers l'égalité du Fonds national de la recherche scientifique. Que ce soit au travail, dans la famille, dans l'église ou dans le système éducatif, tous ces travaux montrent l'ambiguïté et les paradoxes de la situation actuelle et s'interrogent sur les processus qui perpétuent les inégalités anciennes et en créent des nouvelles. Ils nous disent que l'égalité n'est pas un état stable qui pourrait être atteint mais un processus dans lequel les rapports de sexes se modifient et se reconstruisent sans cesse. Le livre est structuré autour de grands axes : la construction de l'égalité à travers les évolutions des identités masculines et féminines et les nouvelles approches à mettre en place pour mieux comprendre et transformer les rapports sociaux de sexe. Par la richesse et la diversité des contributions réunies, cet ouvrage constitue un outil de travail et de références pour les spécialistes comme pour les non-spécialistes. Il suggère également des pistes de réflexion pour alimenter le débat politique et institutionnel.
Resumo:
TEXTABLE est un nouvel outil open source de programmation visuelle pour l'analyse de données textuelles. Les implications de la conception de ce logiciel du point de vue de l'interopérabilité et de la flexibilité sont abordées, ainsi que la question que son adéquation pour un usage pédagogique. Une brève introduction aux principes de la programmation visuelle pour l'analyse de données textuelles est également proposée.
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n'est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu'elle permet de quantifier l'exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d'études sur les animaux, et les données chez l'humain sont limitées.Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l'exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d'intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l'acide phtalique, dans le plasma et l'urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant desvolontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l'acide phtalique qui a été mesuré seulement dans l'urine; iii) de valider les biomarqueurs d'exposition sélectionnés et d'évaluer l'exposition réelle des travailleurs et les voies prédominantes d'exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d'activités de traitement et d'effeuillage pendant sept jours consécutifs.Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l'exposition au captan et au folpet, respectivement, chez l'humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d'ailleurs une élimination rapide, avec une demi-vie d'élimination dans l'urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu'une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d'exposition. Des profils parallèles sont aussi observés entre le PI et l'acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d'acide phtalique que de PI. Quant à l'étude des agriculteurs, elle montre que la voie principale d'exposition de ces travailleurs est la voiecutanée. Il est aussi souligné qu'il est important 1) de favoriser les collectes d'urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d'associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s'appliquer à d'autres fongicides, voire d'autres substances.
Resumo:
Introduction : L'HSA d'origine anévrismale est une pathologie au pronostic sombre, tout retard diagnostique exposant le patient à un risque élevé de récidives hémorragiques potentiellement fatales. La sensibilité du CT scanner étant jugée insuffisante dans cette indication, la majorité des recommandations actuelles préconisent la réalisation systématique d'une ponction lombaire après toute imagerie cérébrale négative. L'analyse spectrophotométrique du LCR permet en effet de différencier un saignement récent dans l'espace sous-arachnoïdien d'une ponction lombaire traumatique par détection de bilirubine. Or, le caractère invasif de cet examen et son manque de spécificité posent des difficultés en pratique. De plus, l'excellente sensibilité des CT de dernières générations, du moins dans les premières heures suivant la survenue de l'HSA, remet en question le dogme d'une PL systématique dans l'algorithme diagnostique d'une céphalée suspecte. Objectif : Evaluer le rendement diagnostique de la spectrophotométrie du LCR dans le cadre d'une suspicion d'HSA après une imagerie normale, afin d'en préciser les indications. Méthode : Étude monocentrique et rétrospective au Centre Hospitalier Universitaire Vaudois de Lausanne du 1er janvier 2005 au 18 novembre 2010. Extraction de toutes les spectrophotométries positives et analyse approfondie des dossiers concernés. Dans un second temps, et durant la même période, revue de tous les séjours hospitaliers comportant le diagnostic d'HSA , afin d'extraire en particulier les HSA dont le diagnostic a été établi par spectrophotométrie en raison d'une imagerie initiale négative ou non conclusive. Résultats : 869 PL du 1er janvier 2005 au 18 novembre 2010. 36 (4.1%) examens positifs (concentration de bilirubine dans le LCR > 0.3 μmol/l), dont 14 (38.9%) dans un contexte d'HSA (valeur prédictive positive de 38.9%). Sur les 14 cas positifs, 3 ont été diagnostiqués exclusivement par la PL, mais aucune dans un cadre d'HSA anévrismale. Dans la même périodepériode, 235 HSA diagnostiquées, dont 7 (2.9%) avec une imagerie cérébrale initiale négative. Sur ces 7 cas, seuls 2 ont été diagnostiqués comme une HSA d'origine anévrismale. La sensibilité du CT dans notre recherche atteint donc 99.15%. Discussion : Sur les 36 spectrophotométries positives, 22 se sont révélées a posteriori faussement positives, confirmant dès lors la faible spécificité et la faible valeur prédictive positive de l'analyse spectrophotométrique du LCR . Ces faux positifs entraînent la réalisation d'examens invasifs (angiographie cérébrale conventionnelle), dont les complications sont bien décrites. Bien que les résultats ne nous permettent pas de chiffrer le nombre potentiel d'HSA manquées faute d'un examen du LCR, aucun cas d'HSA d'origine anévrismale n'a été diagnostiqué sur la base exclusive de la PL durant la période étudiée. Cette faible spécificité appuie l'idée de développer un score clinique prédictif afin de ne réserver la PL qu'aux patients jugés à haut risque d'HSA. La PL garde néanmoins un rôle dans la détection des HSA d'origine non anévrismales. Conclusions : Lors d'une suspicion clinique d'HSA, le rendement diagnostique de l'analyse du LCR après un angio- CT cérébral normal est faible, tout comme son impact sur la prise en charge, au prix d'un nombre important de faux positifs. La PL reste certainement indiquée face à des céphalées suspectes évoluant depuis plus de 24 heures. Toutefois, au vu de l'excellente valeur prédictive négative d'un CT cérébral réalisé précocement et interprété par un neuroradiologue, cet examen ne devrait être réservé qu'aux situations à haut risque d'HSA. A cet égard, le développement d'un score prédictif validé permettrait de mieux sélectionner les candidats à une PL.