999 resultados para méthodes qualitatives


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: The SNARE (Soluble N-ethylmaleimide-sensitive factor Attachment protein Receptors) and SM (Sec1/Munc18) family of proteins form the core machinery that drives the fusion of vesicles in different membrane trafficking steps. They are highly conserved, implying a similar mode of binding and function. In vertebrates, Munc18a is essential for neuronal exocytosis. It binds to its partner syntaxin1a (Syx1a) at both its N-peptide and closed conformation, and thereby inhibits SNARE complex formation in vitro. By contrast, its close homolog Munc18c is thought to interact with only the N-peptide of its partner Syx4. Moreover, different effects of Munc18c on SNARE complex formation have been reported, suggesting that the two Munc18/Syx pairs act differently. Objective: The aim of the present study was to investigate whether the mechanism of action of Munc18c indeed deviates from that of Munc18a by using sensitive biochemical and biophysical methods. Results: I found that Munc18c does have a similar binding mode as Munc18a and interacts tightly with Syx4 at both the N-peptide and closed conformation. Moreover, I established, through a novel assay, that Munc18c inhibits SNARE complex assembly, with both the binding sites contributing to inhibition, similar to Munc18a. However, there were several subtle differences between the two Munc18/Syx pairs. Munc18a exerted stronger inhibition than Munc18c. Also their respective Syx partners were found to differ in the rate of binding to SNAP25, suggesting that the equilibrium of their open and closed conformations is different. Moreover, Munc18a was found to interact with Syx 1, 2, 3 but not 4, while Munc18c bound to Syx 2, 4 and 1 but not 3. By comparing the kinetics of interaction of Syx with either Munc18 or SNAP25, I found that the block of SNARE complex assembly by Munc18 is effective on a shorter time scale, but SNAP25 eventually binds to Syx resulting in SNARE complex formation. Nevertheless, these findings do not explain how Syx can escape the tight grip of Munc18, suggesting that other proteins or mechanisms are needed for this step. I also discovered that Munc18 is able to bind on the surface of the SNARE core complex; however, this observation needs to be tested more rigorously. Conclusion: Munc18c was found to be similar to Munc18a in its mode of binding to Syx and inhibition of SNARE complex assembly. However, differences in kinetics and interaction specificities were observed between the different Munc18/Syx pairs. -- Contexte : Les familles des protéines SNARE (Soluble N-ethylmaleimide-sensitive factor At- tachment protein Receptors) et SM (Sec1/Munc18) forment le coeur de la machinerie chargée de la fusion vésiculaire au cours des différentes étapes du trafic intracellulaire. Elles sont très conservées, suggérant un mode d'interaction et des fonctions semblables. Chez les Verté- brés, Munc18a est essentielle à l'exocytose neuronale. Elle se lie à sa partenaire d'interaction syntaxin1a (Syx1a) à la fois via un peptide N-terminal et la conformation fermée de celle-ci, inhibant ainsi la formation du complexe SNARE in vitro. Son homologue proche Munc18c au contraire, est supposée interagir seulement avec le peptide N-terminal de sa partenaire Syx4. En outre, différents effets de Munc18c sur la formation du complexe SNARE ont été décrits, suggérant que les deux paires Munc18/Syx fonctionnent différemment. Objectif : Le but de cette étude est de tester si les mécanismes de fonctionnement de Munc18c diffèrent vraiment de ceux de Munc18a par le biais de méthodes biochimiques et biophysiques très précises. Résultats : J'ai pu démontrer que Munc18c se comporte en effet de façon semblable à Munc18a, et interagit étroitement avec Syx4 à ses deux sites de liaison. J'ai pu de surcroît montrer par une nouvelle méthode que Munc18c inhibe l'assemblage du complexe SNARE en impliquant ces deux sites de liaison, comme le fait Munc18a. il existe cependant de subtiles différences entre les deux paires Munc18/Syx : Munc18a exerce une inhibition plus forte que Munc18c ; leurs Syx partenaires diffèrent également dans leur degré de liaison à SNAP25, ce qui suggère un équilibre different de leurs conformations ouverte et fermée. De plus, Munc18a interagit avec Syx 1, 2 et 3 mais pas Syx 4, alors que Munc18c se lie à Syx 2, 4 et 1 mais pas Syx 3. En comparant les cinétiques d'interaction de Syx avec Munc18 ou SNAP25, j'ai découvert que le blocage par Munc18 de l'assemblage du complexe SNARE est effectif de façon brève, bien que SNAP25 finisse par se lier à Syx et aboutir ainsi à la formation du complexe SNARE. Ces découvertes n'expliquent cependant pas comment Syx parvient à échapper à la solide emprise de Munc18, et suggèrent ainsi l'intervention nécessaire d'autres protéines ou mécanismes à cette étape. J'ai également découvert que Munc18 peut se lier à la surface de la partie centrale du complexe SNARE - cette observation reste à être testée de façon plus stringente. Conclusion : Il a pu être établi que Munc18c est semblable à Munc18a quant à son mode de liaison à Syx et d'inhibition de l'assemblage du complexe SNARE. Des différences de cinétique et de spécificité d'interaction entre les diverses paires Munc18/Syx ont cependant été identifiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le retard de croissance intra-utérin (RCIU) est défini comme une incapacité du foetus à atteindre son plein potentiel de croissance. C'est une complication fréquente (affectant ~8% des grossesses), associée à un risque accru de mortalité et morbidité périnatales et de maladies chroniques à l'âge adulte, telles que les maladies coronariennes, l'hypertension, ou le diabète. Une croissance foetale adéquate est déterminée principalement par la disponibilité en oxygène et nutriments apportés au foetus par la circulation ombilico-placentaire. Chez l'homme, le tonus vasculaire ombilical est régulé majoritairement par la voie du monoxyde d'azote (NO)/GMPc. Nous avons émis l'hypothèse que le RCIU pourrait être associé à des altérations dans la régulation de la circulation ombilicale, en particulier dans la voie du NO/GMPc. Méthodes: Cette étude a été conçue pour identifier dans des cordons ombilicaux, les changements structurels, fonctionnels et moléculaires survenant en cas de RCIU, en particulier dans la veine om-bilicale. Résultats: De façon générale, le diamètre du cordon ombilical était significativement réduit chez les nouveau-nés avec RCIU par rapport aux contrôles. Les mesures histomorphométriques ont mis en évidence une diminution significative de la surface transversale totale ainsi que de muscle lisse dans la veine ombilicale en cas de RCIU. Les études pharmacologiques effectuées sur des anneaux vasculaires de veines ombilicales ont montré une diminution de la tension maximale induite par des vasoconstricteurs chez les garçons avec RCIU, et une réduction significative de la relaxation induite par le NO chez les filles avec RCIU. Cette altération de la relaxation s'accompagne de modifications de plusieurs composants de la voie du NO/GMPc au niveau du muscle lisse de la veine ombilicale des filles avec RCIU. Enfin l'addition d'un inhibiteur non-spécifique des phosphodiesterases (PDEs) a permis d'améliorer la réponse au NO dans tous les groupes et surtout de compenser la réduction de la relaxation induite par le NO chez les filles avec RCIU. Conclusion: Cette étude a permis de mettre en évidence des modifications structurelles dans le cordon ombilical de nouveau-nés présentant un RCIU, ainsi que des changements fonctionnels et moléculaires dans la veine ombilicale, en particulier dans la voie du NO/GMPc, qui pourraient contribuer au développement du RCIU. L'effet bénéfique de l'inhibition des PDEs sur la relaxation suggère qu'elles pourraient constituer des cibles thérapeutiques potentielles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Les yeux sont du visage humain la partie la plus noble et la plus importante, les yeux sont composés de corps, d'âme et d'esprit, ou plutôt les yeux sont la fenêtre où l'âme et l'esprit viennent se montrer » (Alphonse Karr, 1853). L'oeil est le regard, mais pour l'ophtalmologue il est aussi une fenêtre ouverte et un regard possible sur le reste du corps. Prolongement du système nerveux central en contact direct avec le monde extérieur dont il est l'un des « senseurs » le plus subtil et le plus complexe, il est sujet à des réactions inflammatoires, allergiques et toxiques chez l'enfant et chez l'adulte. Alors que notre environnement visuel change (modification des systèmes d'éclairage domestique dans les villes, écrans, mode de vie et habitudes de travail), que les polluants se multiplient et se combinent et que les environnements climatisés deviennent la règle, le nombre de patients souffrant de pathologies de la surface oculaire atteint 30 % des motifs de nos consultations et le nombre des patients myopes est en hausse. L'oeil est l'un des « senseurs » le plus subtil et le plus complexe Si la surface oculaire peut aussi être le témoin des pathologies systémiques, c'est la rétine qui en est plus fréquemment le reflet. Les atteintes du lit vasculaire, du nerf optique ou de la rétine peuvent être des manifestations de pathologies générales ou d'effets secondaires ou toxiques de médicaments. L'examen du fond d'oeil et la rétinophotographie restent les examens de dépistage de référence en particulier pour la rétinopathie diabétique, véritable fléau mondial et première cause de cécité dans les pays industrialisés chez les jeunes adultes. Mais ce n'est que par la collaboration entre ophtalmologues, médecins traitants et autres spécialistes que les pathologies rétiniennes peuvent être prises en charge de façon optimale pour qu'à des traitements oculaires spécifiques soit associée la prise en charge globale des maladies causales ou interférentes. Au-delà du fond d'oeil, les progrès technologiques contribuent au développement de multiples méthodes d'exploration des différentes structures de l'oeil offrant ainsi la possibilité d'utiliser l'oeil comme témoin de manifestations précoces de maladies neurologiques périphériques ou centrales. L'imagerie cornéenne semble aujourd'hui capable de révéler et de suivre de façon longitudinale la neuropathie diabétique périphérique et il n'est pas impossible que la rétine devienne le site de détection précoce de la maladie d'Alzheimer. Sur le plan de la prise en charge, l'ophtalmologue ne peut pas se contenter de traiter l'oeil, il doit aussi assurer une prise en charge pluridisciplinaire et accompagner le patient qui, perdant la vision, est sujet à la dépression et à la majoration de tout autre handicap. La perte visuelle est le handicap le plus redouté des populations et la perte d'autonomie qu'il induit limite l'observance et le suivi thérapeutique (comparable en termes de gravité ressentie à un « alitement brutal dans les suites d'un AVC »). La médecine personnalisée et les interactions multidisciplinaires prennent ici tout leur sens. Les développements thérapeutiques ont été majeurs ces dernières années et la cécité n'est plus une fatalité, au moins dans certains cas. Mais la rétine étant un tissu nerveux post-mitotique, les traitements et donc le dépistage doivent être précoces pour prévenir la perte visuelle irréversible. Spécifiquement, les espoirs lointains comme la thérapie génique entrent dans les essais cliniques laissant entrevoir la lumière au bout du tunnel. A portée de vue, la rétine artificielle constitue une avancée concrète, encore perfectible mais accessible dès aujourd'hui. Si les progrès sont manifestes dans le domaine de l'ophtalmologie, il reste encore beaucoup à apprendre et à comprendre en particulier dans les mécanismes pathogéniques multifactoriels des maladies oculaires plus fréquentes. Seule une exploration approfondie des maladies humaines pourra nous permettre de mieux appréhender de nouvelles stratégies thérapeutiques. Comme le disait André Isaac (1893-1975), pour voir loin, il faut regarder de près.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fruit d'une thèse de doctorat, cet ouvrage se propose de comparer les rythmes et les modalités de l'acculturation des populations de Gaule interne, de la première moitié du iie s. av. J.-C. au début du ier siècle de notre ère au moyen de l'étude de la céramique fine, dont le répertoire évolue très rapidement pendant la période. Basée sur les données d'une vingtaine de sites urbains (oppida, capitales de cité, vici) répartis en trois aires géographiques (Centre, Est et Centre-Ouest), cette étude propose une présentation céramologique classique, mais aussi des modes d'analyse nouveaux comme le calcul d'un indice de romanisation pour évaluer et comparer le degré d'acculturation des ensembles retenus. Différentes méthodes statistiques, comme des sériations graphiques ou des analyses factorielles des correspondances, sont par ailleurs employées pour mettre en évidence les aspects qualitatifs du phénomène d'acculturation et décomposer son processus en trois niveaux principaux. Illustrés par des tableaux synoptiques et par des cartes, les résultats des calculs d'indices de romanisation permettent d'identifier différents facteurs favorisant de manière évidente la romanisation de la vaisselle dite de table, comme la proximité de la Provincia, une localisation sur un axe majeur (Rhône/Saône, Loire) ou le dynamisme de grands centres d'échanges fréquentés par les mercatores romains (l'oppidum de Bibracte, notamment). Ces traitements statistiques permettent également de mettre en évidence des retards dans l'acculturation de certains peuples qui pourraient s'expliquer par leur hostilité envers Rome. Le phénomène est notamment illustré par les Helvètes, voisins de la Transalpina depuis 120 av. J.-C., dont la vaisselle fine est très peu romanisée avant l'intégration de ce peuple dans l'Empire, puis atteint rapidement après cet événement des niveaux particulièrement élevés. L'auteur propose enfin des réflexions sur la portée réelle des phénomènes observés en termes de romanisation de la vie quotidienne, une mutation technique et stylistique des récipients n'impliquant pas forcément l'adoption de nouvelles pratiques alimentaires.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Parmi les infections nosocomiales, le Staphylocoque méticilline résistant (MRSA) est le germe pathogène le plus couramment identifié dans les hôpitaux du monde entier. La stratégie de contrôle des MRSA au CHUV implique le dépistage des patients à risque. Avec la méthode de dépistage par culture, le temps d'attente est de plusieurs jours. Ceci occasionne des problèmes dans la gestion des flux des patients, principalement à cause des mesures d'isolement. Pour réduire le temps d'attente, l'hôpital envisage d'utiliser une méthode de diagnostic rapide par "polymerase chain reaction" (PCR). Méthodologie : Les données concernant les dépistages réalisés, dans trois services durant l'année 2007, ont été utilisées. Le nombre de jours d'isolement a d'abord été déterminé par patient et par service. Ensuite une analyse des coûts a été effectuée afin d'évaluer la différence des coûts entre les deux méthodes pour chaque service. Résultats : Le principal impact économique de la méthode par PCR dépend principalement du nombre de jours d'isolements évités par rapport à la méthode de culture. Aux services de soins, l'analyse a été menée sur 192 dépistages. Quand la différence de jours d'isolement est de deux jours, le coût des dépistages diminue de plus de 12kCHF et le nombre de jours d'isolement diminue de 384 jours. Au centre interdisciplinaire des urgences, sur 96 dépistages, le gain potentiel avec la méthode PCR est de 6kCHF avec une diminution de 192 jours d'isolement. Aux soins intensifs adultes, la méthode de dépistage par PCR est la méthode la plus rentable avec une diminution des coûts entre 4KCHF et 20K CHF et une diminution des jours d'isolement entre 170 et 310. Pour les trois services analysés, les résultats montrent un rapport coût-efficacité favorable pour la méthode PCR lorsque la diminution des jours d'isolement est supérieure à 1.3 jour. Quand la différence de jours d'isolement est inférieure à 1.3, il faut tenir compte d'autres paramètres, comme le coût de matériel qui doit être supérieur à 45.5 CHF, et du nombre d'analyses par dépistage, qui doit être inférieur à 3, pour que la PCR reste l'alternative la plus intéressante. Conclusions : La méthode par PCR montre des avantages potentiels importants, tant économiques qu'organisationnels qui limitent ou diminuent les contraintes liées à la stratégie de contrôle des MRSA au CHUV. [Auteure, p. 3]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Après les maladies cardiovasculaires, le cancer est la deuxième cause de mortalité en Suisse. Les cancers de la prostate, du sein, du côlon-rectum, du col utérin et le mélanome cutané représentent, en termes d'incidence et de mortalité, la moitié du fardeau du cancer en Suisse. Des moyens de prévention primaire et/ou secondaire contribuent à réduire la fréquence et la mortalité due à ces cinq cancers. Cependant, l'attitude face à la prévention diffère selon les individus et dépend de multiples facteurs socio-économiques, environnementaux, culturels et comportementaux. Objectif : Évaluer la fréquence et identifier les déterminants des pratiques de dépistage des cancers de la prostate, du sein, du côlon-rectum, du col utérin et du mélanome cutané en Suisse. Matériel et méthode : Les données utilisées sont issues de l'Enquête suisse sur la santé 2007. Une pondération statistique permet d'extrapoler les résultats à la population générale. Des modèles de régression logistique multivariée ont été construits afin de décrire l'association entre pratique du dépistage et facteurs sociodémographiques, style de vie, état de santé, recours aux prestations de santé et soutien social. Résultats : En 2007, selon les méthodes et fréquences recommandées en Suisse et dans les tranches d'âge concernées, 49% des hommes ont effectué un dépistage du cancer prostatique, 13% du cancer colorectal et 33,7% du mélanome cutané. Chez les femmes, 17,9% ont réalisé un dépistage du cancer du sein, 8,7% du cancer colorectal, 36,8% du mélanome cutané et 50,2% du cancer du col utérin. Globalement et pour les deux sexes, l'âge, le lieu de résidence, le niveau de formation, la classe socioprofessionnelle, le revenu d'équivalence du ménage, la pratique d'autres dépistages des cancers, le nombre de visites médicales et de jours d'hospitalisation au cours des 12 mois précédents déterminent le recours au dépistage des cancers d'intérêt. Chez les hommes, la présence d'un médecin de famille et, chez les femmes, la franchise annuelle, influencent aussi la pratique du dépistage. Conclusion : Les prévalences du dépistage varient notablement selon le type de cancer. Le recours aux dépistages des cancers dépend de facteurs sociodémographiques, de l'utilisation des services de santé et de la pratique d'autres dépistages, mais peu, voire pas, du style de vie, de l'état de santé et de la sécurité et du soutien sociaux. Les facteurs identifiés sont souvent communs aux différents types de cancer et rendent possible l'établissement d'un profil général d'utilisateurs du dépistage des cancers. Les stratégies visant à améliorer la compliance aux examens de dépistage devraient considérer les facteurs qui en déterminent le recours et mieux cibler les segments de la population qui les sous-utilisent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lorsque de l'essence est employée pour allumer et/ou propager un incendie, l'inférence de la source de l'essence peut permettre d'établir un lien entre le sinistre et une source potentielle. Cette inférence de la source constitue une alternative intéressante pour fournir des éléments de preuve dans ce type d'événements où les preuves matérielles laissées par l'auteur sont rares. Le but principal de cette recherche était le développement d'une méthode d'analyse de spécimens d'essence par GC-IRMS, méthode pas routinière et peu étudiée en science forensique, puis l'évaluation de son potentiel à inférer la source de traces d'essence en comparaison aux performances de la GC-MS. Un appareillage permettant d'analyser simultanément les échantillons par MS et par IRMS a été utilisé dans cette recherche. Une méthode d'analyse a été développée, optimisée et validée pour cet appareillage. Par la suite, des prélèvements d'essence provenant d'un échantillonnage conséquent et représentatif du marché de la région lausannoise ont été analysés. Finalement, les données obtenues ont été traitées et interprétées à l'aide de méthodes chimiométriques. Les analyses effectuées ont permis de montrer que la méthodologie mise en place, aussi bien pour la composante MS que pour l'IRMS, permet de différencier des échantillons d'essence non altérée provenant de différentes stations-service. Il a également pu être démontré qu'à chaque nouveau remplissage des cuves d'une station-service, la composition de l'essence distribuée par cette station est quasi unique. La GC-MS permet une meilleure différenciation d'échantillons prélevés dans différentes stations, alors que la GC-IRMS est plus performante lorsqu'il s'agit de comparer des échantillons collectés après chacun des remplissages d'une cuve. Ainsi, ces résultats indiquent que les deux composantes de la méthode peuvent être complémentaires pour l'analyse d'échantillons d'essence non altérée. Les résultats obtenus ont également permis de montrer que l'évaporation des échantillons d'essence ne compromet pas la possibilité de grouper des échantillons de même source par GC-MS. Il est toutefois nécessaire d'effectuer une sélection des variables afin d'éliminer celles qui sont influencées par le phénomène d'évaporation. Par contre, les analyses effectuées ont montré que l'évaporation des échantillons d'essence a une forte influence sur la composition isotopique des échantillons. Cette influence est telle qu'il n'est pas possible, même en effectuant une sélection des variables, de grouper correctement des échantillons évaporés par GC-IRMS. Par conséquent, seule la composante MS de la méthodologie mise en place permet d'inférer la source d'échantillons d'essence évaporée. _________________________________________________________________________________________________ When gasoline is used to start and / or propagate an arson, source inference of gasoline can allow to establish a link between the fire and a potential source. This source inference is an interesting alternative to provide evidence in this type of events where physical evidence left by the author are rare. The main purpose of this research was to develop a GC-IRMS method for the analysis of gasoline samples, a non-routine method and little investigated in forensic science, and to evaluate its potential to infer the source of gasoline traces compared to the GC-MS performances. An instrument allowing to analyze simultaneously samples by MS and IRMS was used in this research. An analytical method was developed, optimized and validated for this instrument. Thereafter, gasoline samples from a large sampling and representative of the Lausanne area market were analyzed. Finally, the obtained data were processed and interpreted using chemometric methods. The analyses have shown that the methodology, both for MS and for IRMS, allow to differentiate unweathered gasoline samples from different service stations. It has also been demonstrated that each new filling of the tanks of a station generates an almost unique composition of gasoline. GC-MS achieves a better differentiation of samples coming from different stations, while GC-IRMS is more efficient to distinguish samples collected after each filling of a tank. Thus, these results indicate that the two components of the method can be complementary to the analysis of unweathered gasoline samples. The results have also shown that the evaporation of gasoline samples does not compromise the possibility to group samples coming from the same source by GC-MS. It is however necessary to make a selection of variables in order to eliminate those which are influenced by the evaporation. On the other hand, the carried out analyses have shown that the evaporation of gasoline samples has such a strong influence on the isotopic composition of the samples that it is not possible, even by performing a selection of variables, to properly group evaporated samples by GC-IRMS. Therefore, only the MS allows to infer the source of evaporated gasoline samples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Les dermatophytes sont des champignons filamenteux parasites spécialisés qui dégradent les tissus kératinisés. Ils sont responsables de la plupart des mycoses de la peau, du cuir chevelu et des cheveux, et des ongles. Le choix du traitement des dermatophytoses dépend des symptômes et du dermatophyte incriminé parmi une quinzaine d'espèces possibles. L'identification des dermatophytes se fait en général sur la base des caractères macroscopiques et microscopiques des cultures. L'identification est parfois difficile ou reste incertaine car il peut y avoir des variations d'un isolat à l'autre au sein d'une même espèce. Cependant, les espèces sont facilement identifiées sur la base de séquences d'ADN. En pratique, des séquences d'ADN ribosomique suffisamment polymorphes sont le plus souvent utilisées pour discriminer les espèces de dermatophytes. Des méthodes spécialisées et sophistiquées telles que les séquences d'ADN et la spectrométrie de masse sont de plus en plus proposées dans la littérature pour identifier les dermatophytes. Toutefois, ces méthodes ne peuvent pas être utilisées directement par un médecin dans un cabinet médical. C'est pourquoi des méthodes plus simples basées sur l'observation de caractères phénotypiques des champignons en culture ne devraient pas être abandonnées. Objectif : Etablir une clé d'identification dichotomique se basant sur des caractères macroscopiques et microscopiques permettant une identification fiable du dermatophyte par la culture. Des clés d'identification des espèces seront élaborées et testées pour leur validation en parallèle avec leur identification par des méthodes de Biologie Moléculaire. Créer un outil simple qui pourra être utilisé au laboratoire par des médecins ou des biologistes non spécialisés en mycologie pour identifier les dermatophytes sans avoir recours à une technologie sophistiquée. Méthodes : Inventaire des espèces isolées de 2001 à 2012 au laboratoire de dermatologie du CHUV. Inventaire des caractères phénotypiques permettant de caractériser chaque espèce. Création d'un système dichotomique sur la base des caractères phénotypiques pour séparer et identifier les espèces (clé d'identification des espèces). Résultats attendus : Les résultats attendus sont définis au niveau des objectifs. L'outil doit être accessible pour des personnes inexpérimentées qui pourront alors identifier les dermatophytes. Plus-value : Les dermatophytoses sont fréquemment diagnostiquées. Cet outil est destiné à tous les dermatologues installés et au personnel de laboratoire qui ne sont pas nécessairement spécialisés en la matière.