487 resultados para Échelle de mesure
Resumo:
RÉSUMÉ En conjuguant les méthodes de l'histoire littéraire, de la sociologie des champs et de l'analyse littéraire, ce mémoire se propose d'étudier l'élaboration de la « posture » de Maurice Blanchot dans l'immédiat après-guerre (1944-1948). Le passé de Blanchot, marqué par des positions politiques d'extrême droite dans les années 30, et dans une certaine mesure encore sous l'Occupation, le conduit à un repositionnement conséquent dans le champ littéraire de la Libération marqué par l'Epuration des écrivains collaborateurs. Ce repositionnement se traduit par l'élaboration de la « posture » de l'écrivain en retrait, qui se présente comme la manifestation d'une autonomie littéraire radicale. Toutefois, cette posture du retrait demeure une forme de participation au champ littéraire et Blanchot, malgré sa volonté d'une parfaite autonomie de son oeuvre vis-à-vis des impératifs économiques ou idéologiques du temps, n'en est pas moins amené à réélaborer ses postulats critiques de même que sa production proprement dite (Le Très-Haut, L'Arrêt de mort), en interaction avec les nouvelles forces dominantes du champ littéraire de la Libération. Il est notamment conduit à se positionner vis-à-vis de la nouvelle avant-garde qui a émergé de la Résistance, dominée par Sartre et ses Temps Modernes, qui promeut un nouveau modèle, celui de l'écrivain engagé.
Resumo:
Cette thèse de doctorat traite de cinq traductions françaises des Tristes et des Pontiques d'Ovide parues depuis le second tiers du XXe siècle : celles d'Emile Ripert (1937), de Jacques André (1968-1977), de Dominique Poirel (1989), de Chantai Labre (1991) et de Marie Darrieussecq (2008).¦Les deux oeuvres latines, recueils de lettres élégiaques écrites à la première personne, semblent proposer une réflexion sur le statut du ego qui désigne leur protagoniste, poète romain exilé par Auguste. En effet, ce « je » peut se percevoir tantôt comme le reflet spontané de la personne du poète, dans la mesure où la visée d'Ovide est explicitement autobiographique, tantôt comme le produit d'une construction littéraire, inspiré d'oeuvres de fiction. Dans la critique des XXe et XXIe siècles, la question de savoir comment s'articule le rapport, dans les poèmes d'exil, entre l'oeuvre écrite et la réalité historique, entre le «je» textuel et le « je » de l'auteur, a donné Heu à des réponses très variées.¦Dans un premier temps, l'objectif de l'analyse est de montrer qu'un débat similaire se dessine dans les traductions de la même période, que chaque traducteur des Tristes et des Pontiques, à travers des choix lexicaux et stylistiques bien particuliers, par le biais de commentaires prenant place dans le paratexte de la traduction, fournit au lecteur une image différente du « je » ovidien.¦La seconde étape se concentre sur le processus d'appropriation qui sous-tend la traduction. Les caractéristiques du « je » ovidien, telles qu'elles transparaissent dans la traduction, sont mises en lien avec l'image d'auteur, la poétique ou l'approche interprétative qui ressortent de l'ensemble des productions du traducteur (traductions, oeuvres de commentaire, créations littéraires etc.).¦La troisième partie de l'analyse s'interroge sur la manière dont le traducteur envisage sa pratique et se représente lui-même, dans sa préface ou à travers sa poétique de la traduction, en tant que traducteur. En comparant l'image qu'il montre de lui-même avec celle que sa traduction renvoie de l'auteur du texte original, on observe des similitudes qui suggèrent la parenté de la traduction et de la création littéraire.
Resumo:
ABSTRACT Malaria is a major worldwide public health problem, with transmission occurring throughout Africa, Asia, Oceania and Latin America. Over two billion people live in malarious areas of the world and it is estimated that 300-500 million cases and 1.5-2.7 million deaths occur annually. The increase in multi-drug resistant parasites and insecticide-resistant vectors has made the development of malaria vaccine a public health priority. The published genome offers tremendous opportunity for the identification of new antigens that can befast-tracked for vaccine development. We identified potential protein antigens present on the surface of asexual malaria blood stages through bioinformatics and published transcriptome and proteorné analysis. Amongst the proteins identified, we selected those that contain predicted a-helical coiled-coil regions, which are generally short and structurally stable as isolated fragments. Peptides were synthesized and used to immunize mice. Most peptides tested were immunogenic as demonstrated in ELISA assays, and induced antibodies of varying titres. In immunofluorescence assays, anti-sera from immunized mice reacted with native proteins expressed at different intraerythrocytic developmental stages of the parasite's cycle. In parallel in vitro ADCI functional studies, human antibodies affinity purified on some of these peptides inhibited parasite growth in association with monocytes in magnitudes similar to that seen in semiimmune African adults. Siudies using human immune sera taken from different malaria endemic regions, demonstrated that majority of peptides were recognized at high prevalence. 73 peptides were next tested in longitudinal studies in two cohorts separated in space and time in coastal Kenya. In these longitudinal analyses, antibody responses to peptides were sequentially examined in two cohorts of children at risk of clinical malaria in order to characterize the level of peptide recognition by age, and the role of anti-peptide antibodies in protection from clinical malaria. Ten peptides were associated ?with a significantly reduced odds ratio for an episode of clinical malaria in the first cohort of children and two of these peptides (LR146 and ÁS202.11) were associated with a significantly reduced odds ratio in both cohorts. This study has identified proteins PFB0145c and MAL6P1.37 among others as likely targets of protective antibodies. Our findings support further studies to systematically assess immunogenicity of peptides of interest in order to establish clear criteria for optimal design of potential vaccine constructs to be tested in clinical trials. RESUME La malaria est un problème de santé publique mondial principalement en Afrique, en Asie, en Océanie et en Amérique latine. Plus de 2 milliards de personnes vivent dans des régions endémiques et le nombre de cas par année est estimé entre 300 et 500 millions. 1.5 à 2.7 millions de décès surviennent annuellement dans ces zones. L'augmentation de la résistance aux médicaments et aux insecticides fait du développement d'un vaccin une priorité. Le séquençage complet du génome du parasite offre l'opportunité d'identifier de nouveaux antigènes qui peuvent rapidement mener au développement d'un vaccin. Des protéines antigéniques potentielles présentes à la surface des globules rouges infectés ont été identifiées par bioinformatique et par l'analyse du protéome et du transcriptome. Nous avons sélectionné, parmi ces protéines, celles contenant des motifs dits "a helical coiled-coil" qui sont généralement courts et structurellement stables. Ces régions ont été obtenues par synthèse peptidique et utilisées pour immuniser des souris. La plupart des peptides testés sont immunogéniques et induisent un titre variable d'anticorps déterminé par ELISA. Les résultats de tests d'immunofluorescence indiquent que les sera produits chez la souris reconnaissent les protéines natives exprimées aux différents stades de développement du parasite. En parallèle, des études d'ADCI in vitro montrent qué des anticorps humains purifiés à partir de ces peptides associés à des monocytes inhibent la croissance du parasite aussi bien que celle observée chez des adultes africains protégés. Des études d'antigénicité utilisant des sera de personnes protégées de différents âges vivant dans des régions endémiques montrent que la majorité des peptides sont reconnus avec une haute prévalence. 73 peptides ont été testés dans une étude longitudinale avec 2 cohortes de la côte du Kenya. Ces 2 groupes viennent de zones bien distinctes et les prélèvements n'ont pas été effectués pendant la même période. Dans cette étude, la réponse anticorps contre les peptides synthétiques a été testée dans les 2 cohortes d'enfants à risque de développer un épisode de malaria afin de caractériser le niveau de reconnaissance des peptides en fonction de l'âge et de déterminer le rôle des anticorps anti-peptides dans la protection contre la malaria. Parmi ces peptides, 10 sont associés à une réduction significative des risques de développer un épisode de malaria dans la première cohorte alors qu'un seul (LR146 et AS202.11) l'est dans les 2 cohortes. Cette étude a identifié, parmi d'autres, les protéines PFB0145c et MAL6P1.37 comme pouvant être la cible d'anticorps. Ces résultats sont en faveur de futures études qui évalueraient systématiquement l'immunogénicité des peptides d'intérêt dans le but d'établir des critères de sélection clairs pour le développement d'un vaccin. Résumé pour un large public La malaria est un problème de santé publique mondial principalement en Afrique, en Asie, en Océanie et en Amérique latine. Plus de 2 milliards de personnes vivent dans des régions endémiques et le nombre de cas par année est estimé entre 300 et 500 millions. 1.5 à 2.7 millions de décès surviennent annuellement dans ces zones. La résistance aux médicaments et aux insecticides augmente de plus en plus d'où la nécessité de développer un vaccin. Le séquençage complet du génome (ensemble des gènes) de P. falciparum a conduit au développement de nouvelles .études à large échelle dans le domaine des protéines du parasite (protéome) ; dans l'utilisation d'algorithmes, de techniques informatiques et statistiques pour l'analyse de données biologiques (bioinformatique) et dans les technologies de transcription et de profiles d'expression (transcriptome). Nous avons identifié, en utilisant les outils ci-dessus, des nouvelles protéines antigéniques qui sont présentes au stade sanguin de la malaria. Nous avons sélectionné, parmi ces protéines, celles contenant un motif dit "a-helical coiled-coil" qui sont des domaines impliqués dans un large éventail de fonctions biologiques. Des peptides représentant ces régions structurellement stables ont été synthétisés et utilisés pour immuniser des souris. La plupart des peptides testés sont immunogéniques et induisent un titre variable d'anticorps déterminé par ELISA. Les résultats de tests d'immunofluorescence indiquent que plusieurs sera de souris immunisées avec ces peptides reconnaissent les protéines natives exprimées à la surface des globules rouges infectés. En parallèle, des études d'ADCI in vitro montrent que des anticorps humains purifiés à partir de ces peptides en présence de monocytes inhibent la croissance du parasite de manière similaire à celle observée chez des adultes africains protégés. Des études d'antigénicité utilisant des sera de personnes immunes de différents âges (adultes et enfants) vivant dans des régions endémiques montrent que la majorité des peptides sont reconnus avec une haute prévalence. 73 peptides ont été testés dans des études épidémiologiques dans 2 villages côtiers du Kenya Ces 2 groupes vivent dans des zones bien distinctes et les prélèvements n'ont pas été effectués pendant la même période. Dans ces études, la réponse anticorps dirigée contre les peptides synthétiques a été testée en utilisant 467 échantillons sanguins d'enfants à risque de développer un épisode de malaria afin de caractériser le niveau de reconnaissance des peptides en fonction de l'âge et de déterminer le rôle des anticorps anti-peptides dans la protection contre la malaria cérébrale. Parmi ces peptides, 10 sont associés à une protection contre un épisode de malaria dans le premier village alors qu'un seul l'est dans les 2 villages. Ces résultats sont en faveur de futures études qui évalueraient systématiquement l'immunogénicité des peptides intéressants dans le but d'établir des critères de sélection clairs pour le développement d'un vaccin.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Rapport de synthèseLe syndrome métabolique (défini par les critères ATP III par la présence au minimum de 3 des facteurs suivants : taux plasmatiques d'HDL-cholestérol < 1,04 mmol/1 chez l'homme et < 1.29 mmol/1 chez la femme, taux plasmatiques de triglycérides > 1,69 mmol/1, tension artérielle > 130/85 mmHg, glycémie >6,1 mmol/1, tour de taille > 108 cm chez l'homme et > 88 cm chez la femme) représente une constellation de facteurs de risque majeurs pour le développement de maladies cardiovascu-laires. Il n'est pas encore établi actuellement quelle composante de ce syndrome contribue de manière plus marquée au risque de développer une athérosclérose. Dans le but d'éclaircir la pathogenèse de ce syndrome, une étude multicentrique intitulée GEMS (« Genetic Epidemiology of Metabolic Syndrome ») a été initiée afin de déterminer si la constellation d'une dyslipidémie avec HDL-C bas et TG élevé est un marqueur sensible de l'homogénéité génétique chez les individus atteints de syndrome métabolique.Dans l'étude menée à Lausanne (multicentrique), la contribution de la dyslipidémie avec HDL-C bas et TG élevé dans la pathogenèse de l'athérosclérose a été évaluée par 2 examens, reconnus comme marqueurs fiables de la vasculopathie : la mesure de l'épaisseur intima média carotidienne par ultrasonographic et l'évaluation de la dysfonction endothéliale de la microcirculation cutanée. Deux groupes de sujets comparables en terme d'âge et de sexe et souffrant d'un excès pondéral (BMI > 25 kg/m2) mais normoglycémiques ont été comparés. Ces deux groupes (étude cas-témoins) étaient uniquement discordants quant à leurs profils lipidiques. Ainsi, 120 cas, définis comme ayant un HDL-cholestérol bas (< 25 percentile pour l'âge et le sexe dans la population générale) et des TG élevés (> 75 percentile) ont été comparés à 120 contrôles avec un HDL-cholestérol haut (> 50 percentile) et des TG bas (< 50 percentile). Un doppler des artères carotides et fémorales a été effectué pour déterminer l'épaisseur de l'intima média et la présence ou non de plaques d'athérome. La fonction endothéliale a été évaluée par un laser doppler sur la micro-circulation cutanée (réponse hyperémique à une occlusion transitoire de la circulation de l'avant-bras par une manchette à pression et mesure de la vasodilatation induite par un échauffement local de la peau avec de l'eau). Un enregistrement de la pression artérielle ambulatoire sur la journée (Remler) a été pratiqué chez tous les sujets.Les résultats obtenus montrent que les cas ont une prévalence plus élevée de plaques d'athérome (médiane 1,5 ± 0,15 vs 0,8 > 0,15, p<.001), une épaisseur intima média plus importante (médiane 0,66 ± 0,15 vs 0,61 ± 0,15, p<.01), ainsi qu'une réduction significative de la vasodilatation endothéliale induite par la chaleur et post-ischémique comparativement aux contrôles.En conclusion, le profil lipidique associant un HDL-cholestérol bas et des triglycérides élevés représente un risque majeur de développer une maladie athéromateuse périphérique et est associée à une augmentation de l'épaisseur intima média et une altération de la fonction endothéliale chez les individus en surcharge pondérale. Bien qu'un HDL-cholestérol bas soit fréquemment associé à une hypertriglycéridémie, les résultats de notre étude peuvent suggérer un rôle potentiel de la fraction HDL-cholestérol comme un puissant agent anti-athérogénique.
Resumo:
Six muscardins vivant en liberté, munis d'une marque radioactive, ont été étudiés durant un hiver dans leur habitat naturel. L'un d'eux était muni d'un radio-émetteur en position intrapéritonéale permettant de mesurer la température corporelle (Tc) au nid et sur des sites de nourrissage. Tous les nids d'hibernation (n=17) étaient situés sur le sol, dans la litière ou dans un gazon. Un nid d'été a été utilisé occasionnellement durant une période clémente. Entre décembre et avril, les périodes de torpeur de 2 à 27 jours (xmoy= 10.8 j). Les périodes de nomothérmie sans quitter le nid duraient 50 à 210 min (xmoy=105 min). Durant les réveils spontanés, la température corporelle était de 36.7 ± 0.4°C, correspondant à une température corporelle moyenne diurne durant le sommeil (36.8 ± 0.3°C). En captivité, la Tc durant la nuit équivalait à 37.6 ± 0.6°C , tandis que la température en activité, mesurée dans la nature, était de 38.5 ± 0.7°C. Durant la torpeur, la Tc était très proche de la température du sol (∆T < 1°C); quand la température descendait à -3°, la Tc a été maintenue entre -0.4 et -0.8°C. Les nids d'hiver situés en surface du sol et sous une couverture de neige restent durant une grande partie de l'hibernation près de 0 ºC, ce qui est probablement proche de la température à laquelle M. avellanarius présente des dépenses énergétiques minimales.
Resumo:
Le but de mon travail de master est de présenter les résultats à une année postopératoire d'une étude prospective sur une nouvelle prothèse totale du genou : la F.I.R.S.T. Evolution. Cette prothèse s'intéresse à des patients plus jeunes, avec une importante laxité des ligaments collatéraux. L'étude finale suivra à cinq ans une cohorte de cinquante patients environ. Actuellement, nous suivons 17 patients opérés avec cette prothèse (dont 9 femmes et 8 hommes, 9 genoux droits et 8 genoux gauches) avec un âge moyen de 69,10 ans (de 42 à 83 ans). Pour l'obtention des résultats, les patients ont remplis des questionnaires spécifiques couramment utilisés (Eq5D, WOMAC, KSS, échelle analogique de la douleur EVA/VAS, UCLA activity-rating level), ont bénéficié de contrôles radiologiques réguliers et d'une analyse régulière de la marche, à trois vitesses différentes. Cette analyse est objective et se base sur un système de capteurs miniaturisés. Les résultats cliniques obtenus à une année démontrent une amélioration globale de la fonction du genou et de la qualité de vie perçue par le patient (Eq5D, WOMAC, EVA/VAS, KSS, UCLA). Les données à une année de l'analyse de marche montrent une amélioration significative dans tous les paramètres du cycle de marche et aux différentes vitesses. En comparant nos résultats avec ceux précédemment obtenus, nous pouvons être satisfaits car ils se sont améliorés depuis la dernière échéance à 6 mois. De plus, nos résultats à une année suivent ceux obtenus dans d'autres études utilisant les mêmes questionnaires et une analyse objective de la marche. On s'attend à ce que ces données se stabilisent voire continuent de s'améliorer dans les années à venir.
Resumo:
Résumé Introduction: La perfusion isolée cytostatique du poumon est une technique attractive qui permet l'administration des doses élevées d'un agent cytostatique tout en épargnant dans la mesure du possible la circulation systémique. Cependant, la perfusion de l'artère pulmonaire risque d'épargner le territoire pulmonaire vascularisé par l'intermédiaire des artères bronchiques, ce qui pourrait diminuer l'efficacité de ce traitement au cas où la lésion ciblée est vascularisée par les artères bronchiques. Ce travail est destiné au développement d'un modèle tumoral au niveau des poumons de rongeur (rat) porteur d'un sarcome pulmonaire afin de déterminer si la voie d'injection des cellules tumorales (intraveineuse, versus intratumorale) influencera la vascularisation des tumeurs (provenant du système artères pulmonaires ou artères bronchiques). Méthod: Des tumeurs de sarcomes pulmonaires ont été générées par injection d'une suspension cellulaire de sarcome, soit par injection intraveineuse, soit directement dans le parenchyme pulmonaire par thoracotomie. Ensuite, une perfusion isolée du poumon porteur de la tumeur à l'aide de l'encre a été effectuée, soit par l'artère pulmonaire, soit par le système des artères bronchiques. La distribution de l'encre dans les vaisseaux tumoraux ainsi que dans les vaisseaux non tumoraux du poumon adjacent a été investiguée à l'aide d'une analyse histologique des poumons perfusés. Résultat: L'administration intraveineuse et intratumorale de la suspension de cellules tumorales résulte en des tumeurs similaires sur le plan histologique. Néanmoins, l'injection intra-parenchymateuse démontre des tumeurs plus homogènes et avec un développement plus prédictible, était associée à une survie plus longue qu'après injection intraveineuse. Les analyses histologiques après perfusion isolée à l'aide de l'encre démontre que les tumeurs résultant de l'injection intraveineuse ont développé une vascularisation se basant sur le système d'artères pulmonaires tandis que les tumeurs émergeant après injection intraparenchymateuse ont développé une vascularisation provenant du système des artères bronchiques. Conclusion: Ce travail démontre pour la première fois l'importance du mode de génération de tumeurs pulmonaires en ce qui concerne leur future vascularisation, ce qui pourrait avoir un impact sur leur traitement par perfusion isolée du poumon. Abstract Isolated cytostatic lung perfusion (ILP) is an attractive technique allowing delivery of a high-dose of cytostatic agents to the lungs while limiting systemic toxicity. In developing a rat model of ILP, we have analysed the effect of the route of tumour cell injection on the source of tumour vessels. Pulmonary sarcomas were estab¬lished by injecting a sarcoma cell suspension either by the intravenous (i.v.) route or directly into the lung paren¬chyma. Ink perfusion through either pulmonary artery (PA) or bronchial arteries (BA) was performed and the characteristics of the tumour deposits defined. i.v. and direct injection methods induced pulmonary sarcoma nodules, with similar histological features. The intraparenchymal injection of tumour cells resulted in more reli¬able and reproducible tumour growth and was associat¬ed with a longer survival of the animals. i.v. injected tumours developed a PA-derived vascular tree whereas directly injected tumours developed a BA-derived vasculature.
Resumo:
In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.
Resumo:
Le développement de méthodes de mesure de la qualité des soins et les actions visant à son amélioration font partie intégrante de la pratique quotidienne. Les infections nosocomiales représentent un Indicateur Incontournable et leur prévention apparaît comme un champ d'action privilégié du concept de l'amélioration continue de la qualité des soins. Dans ce domaine, de nombreuses mesures ont fait l'objet d'études répondant à des critères méthodologiques de qualité élevée, dont les résultats sont hautement significatifs au plan statistique. Les interventions complexes concernant par exemple l'ensemble des patients d'un service ou d'une institution ne permettent que difficilement de satisfaire à ces exigences méthodologiques. Sous certaines conditions, elle peuvent cependant avoir un impact réel et parfois durable sur la qualité des soins. A titre d'exemple, nous discutons deux interventions complexes dans le domaine de la prévention des infections nosocomiales, résultant de démarches visant à une amélioration globale et durable de la qualité des soins. L'utilisation d'outils épidémiologiques adaptés permet également d'estimer le bénéfice des Interventions en milieu hospitalier conformément à ce que la communauté scientifique reconnaît comme étant une recherche clinique de qualité.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
L'objectif de l'étude présentée est d'adapter et de valider une version française de la Stigma Scale (King, 2007) auprès d'une population de personnes souffrant de troubles psychiques. Dans une première phase, la stabilité temporelle (fidélité test-retest), la cohérence interne et la validité convergente de l'instrument original à 28 items traduit en français ont été évaluées auprès d'un échantillon de 183 patients. Les résultats d'analyses factorielles confirmatoires ne nous ont pas permis de confirmer la structure originale de l'instrument. Nous avons donc proposé, sur la base des résultats d'une analyse factorielle exploratoire, une version courte de l'échelle de stigmatisation (9 items) qui conserve la structure en trois facteurs du modèle original. Dans une deuxième phase, nous avons examiné les qualités psychométriques et validé cette version abrégée de l'échelle de stigmatisation auprès d'un second échantillon de 234 patients. Les indices d'ajustements de notre analyse factorielle confirmatoire confirme la structure en trois facteurs de la version abrégée de la Stigma Scale. Les résultats suggèrent que la version française abrégée de l'échelle de stigmatisation constitue un instrument utile, fiable et valide dans l'autoévaluation de la stigmatisation perçue par des personnes souffrant de troubles psychiques. - Aim People suffering from mental illness are exposed to stigma. However, only few tools are available to assess stigmatization as perceived from the patient's perspective. The aim of this study is to adapt and validate a French version of the Stigma Scale (King, 2007). This self-report questionnaire has a three-factor structure: discrimination, disclosure and positive aspects of mental illness. Discrimination subscale refers to perceived negative reactions by others. Disclosure subscale refers mainly to managing disclosure to avoid discrimination and finally positive aspects subscale taps into how patients are becoming more accepting, more understanding toward their illness. Method In the first step, internal consistency, convergent validity and test-retest reliability of the French adaptation of the 28-item scale have been assessed on a sample of 183 patients. Results of confirmatory factor analyses (CFA) did not confirm the hypothesized structure. In light of the failed attempts to validate the original version, an alternative 9-item short-form version of the Stigma Scale, maintaining the integrity of the original model, was developed based on results of exploratory factor analyses in the first sample and cross- validated in a new sample of 234 patients. Results Results of CFA did not confirm that the data fitted well to the three-factor model of the 28-item Stigma Scale (χ2/άί=2.02, GFI=0.77, AGFI=0.73, RMSEA=0.07, CFI=0.77 et NNFI=0.75). Cronbach's α are excellent for discrimination (0.84) and disclosure (0.83) subscales but poor for potential positive aspects (0.46). External validity is satisfactory. Overall Stigma Scale total score is negatively correlated with score on Rosenberg's Self-Esteem Scale (r = -0.49), and each sub-scale is significantly correlated with a visual analogue scale that refers to the specific aspect of stigma (0.43 < |r| < 0.60). Intraclass correlation coefficients between 0.68 and 0.89 indicate good test- retest reliability. Results of CFA demonstrate that the items chosen for the short version of the Stigma Scale have the expected fit properties fa2/df=1.02, GFI=0.98, AGFI=0.98, RMSEA=0.01, CFI=1.0 et NNFI=1.0). Considering the small number (3 items) of items in each subscales of the short version of the Stigma Scale, a coefficients for the discrimination (0.57), disclosure (0.80) and potential positive aspects subscales (0.62) are considered as good. Conclusion Our results suggest that the 9-item French short-version of the Stigma Scale is a useful, reliable and valid self-report questionnaire to assess perceived stigmatization in people suffering from mental illness. The time of completion is really short and questions are well understood and accepted by the patients.
Resumo:
Rapport de synthèse: Les rendez-vous manqués représentent un problème important, tant du point de vue de la santé des patients que du point de vue économique. Pourtant peu d'études se sont penchées sur le sujet, particulièrement dans une population d'adolescents. Les buts de cette étude étaient de caractériser les adolescents qui sont à risque de manquer ou d'annuler leurs rendez-vous dans une clinique ambulatoire de santé pour adolescents, de comparer les taux des rendez-vous manqués et annulés entre les différents intervenants et d'estimer l'efficacité d'une politique de taxation des rendez-vous manqués non excusés. Finalement, un modèle multi-niveau markovien a été utilisé afin de prédire le risque de manquer un rendez-vous. Ce modèle tient compte du passé de l'adolescent en matière de rendez-vous manqués et d'autres covariables et permet de grouper les individus ayant un comportement semblable. On peut ensuite prédire pour chaque groupe le risque de manquer ou annuler et les covariables influençant significativement ce risque. Entre 1999 et 2006, 32816 rendez-vous fixés pour 3577 patients âgés de 12 à 20 ans ont été analysés. Le taux de rendez-vous manqués était de 11.8%, alors que 10.9% avaient été annulés. Soixante pour cent des patients n'ont pas manqué un seul de leur rendezvous et 14% en ont manqué plus de 25%. Nous avons pu mettre en évidence plusieurs variables associées de manière statistiquement significative avec les taux de rendez-vous manqués et d'annulations (genre, âge, heure, jour de la semaine, intervenant thérapeutique). Le comportement des filles peut être catégorisé en 2 groupes. Le premier groupe inclut les diagnostiques psychiatriques et de trouble du comportement alimentaire, le risque de manquer dans ce groupe étant faible et associé au fait d'avoir précédemment manqué un rendez-vous et au délai du rendez-vous. Les autres diagnostiques chez les filles sont associés à un second groupe qui montre un risque plus élevé de manquer un rendez-vous et qui est associé à l'intervenant, au fait d'avoir précédemment manqué ou annulé le dernier rendez-vous et au délai du rendez-vous. Les garçons ont tous globalement un comportement similaire concernant les rendez-vous manqués. Le diagnostic au sein de ce groupe influence le risque de manquer, tout comme le fait d'avoir précédemment manqué ou annulé un rendez-vous, le délai du rendez-vous et l'âge du patient. L'introduction de la politique de taxation des rendez-vous non excusés n'a pas montré de différence significative des tàux de rendez-vous manqués, cependant cette mesure a permis une augmentation du taux d'annulations. En conclusion, les taux de présence des adolescents à leurs rendez-vous sont dépendants de facteurs divers. Et, même si les adolescents sont une population à risque concernant les rendez-vous manqués, la majorité d'entre eux ne manquent aucun de leurs rendez-vous, ceci étant vrai pour les deux sexes. Etudier les rendez-vous manqués et les adolescents qui sont à risque de rater leur rendez-vous est un pas nécessaire vers le contrôle de ce phénomène. Par ailleurs, les moyens de contrôle concernant les rendez-vous manqués devraient cibler les patients ayant déjà manqué un rendez-vous. La taxation des rendez-vous manqués permet d'augmenter les rendez-vous annulés, ce qui a l'avantage de permettre de fixer un nouveau rendez-vous et, de ce fait, d'améliorer la continuité des soins.
Resumo:
Objectifs: Comprendre les principes physique de la diffusion. Comprendre le principe de mesure de la diffusion par IRM. Ccomprendre la relation entre la diffusion de l'eau en milieu biologique et l'organisation de la matière blanche. Comprendre comment cartographier la connectivité cérébrale par irm de diffusion. Messages à retenir: Les propriétés de diffusion du tissu cérébral sont conditionnées par l'architecture axonale. La mesure de la diffusion par IRM permet de cartographier les trajectoires de fibres nerveuses et donc la connectivité cérébrale. La connectivité cérébrale peut être mesurés de manière non-invasive. Résumé: La "connectomique" est un domaine émergeant et prometteur des neurosciences qui utilise l'IRM de diffusion en combinaison avec des traitements algorithmiques avancés afin de mesurer les trajectoires de faisceaux de fibres et la connectivité cérébrale permettant d'étudier l'organisation de la structure du réseau neuronal cérébral dans son ensemble. Lors de ce cours nous reverrons les méthodes rendant cette cartographie possible et exposerons les techniques d'analyse utilisées pour obtenir de nouvelles informations sur l'architecture cérébrale. Nous reverrons également un certains nombre d'exemple d'applications où la connectomique offre une nouvelle manière d'analyser et de comprendre le fonctionnement du cerveau normal ou malade.