999 resultados para Méthodes mixtes
Resumo:
Introduction Les Echelles Lausannoises d'Auto-Evaluation des Difficultés et des Besoins ELADEB, est un outil utilisé en réhabilitation psychiatrique permettant de dresser le profil des problèmes rencontrés par les patients psychiatriques dans les principaux domaines de la vie quotidienne, ainsi que le besoin d'aide supplémentaire à celle déjà existante. Cet outil a déjà été validé dans une étude1 portant sur 94 patients et recueille un intérêt grandissant. Afin de compléter les données de validation recueillies lors de la première étude, nous présentons ici une seconde étude visant à comprendre d'avantage cet outil en le couplant à l'Eye tracker qui permet une étude du regard et ainsi observer des phénomènes visuels des sujets qui pratiquent l'auto-évaluation des difficultés et des besoins d'aide. Objectifs Cette étude pilote et exploratrice a pour but de mesurer l'exploration visuelle des cartes lors de l'évaluation d'ELADEB au travers des trois variables suivantes d'oculométrie récoltées au travers de l'outil de mesure de l'Eye tracker : (1) la variation de la taille pupillaire (pixels), (2) le rapport des nombres de points de fixation/temps, et (3) de la durée totale du temps de traitement de l'information de la carte (ms). Hypothèses. Le traitement visuel des cartes sélectionnées comme problèmes versus non problèmes sera différent chez tout le monde d'une part au niveau de : (1) la variation pupillaire, (2) du nombre de points de fixation de l'oeil/temps ainsi que (3) de la durée totale du traitement de l'information de la carte en fonction de notre compréhension. On peut poser l'hypothèse que l'émotion sera différente selon que la personne rencontre un problème ou non et ainsi, on peut s'attendre à ce que les cartes sélectionnées comme problèmes soient associées à une réaction émotionnelle plus importante que les autres, ce qui nous permettrait d'observer une corrélation entre le balayage visuel et ELADEB. Méthodes Cette étude exploratoire porte sur un échantillon de 10 sujets passant un test d'évaluation des difficultés et des besoins ELADEB, couplé à un appareil d'Eye tracking. Les critères d'inclusion des sujets sont : (1) hommes entre 30 et 40 ans, (2) dépourvu de symptômes psychotiques ou de psychoses. Les critères d'exclusion des sujets sont : (1) consommation d'alcool ou de drogues, (2) troubles psycho-organiques, (3) retard mental, (4) difficulté de compréhension de la langue française, (5) état de décompensation aiguë empêchant la réalisation de l'étude. Trois instruments sont utilisés comme supports d'analyses pour cette étude : (1) ELADEB, (2) l'Eye tracking et (3) le Gaze tracker. Le dispositif (2) d'Eye tracking se présente sous forme de lunettes particulières à porter par le sujet et qui permet de suivre les mouvements de l'oeil. L'une des caméras suit et enregistre les mouvements oculaires du sujet et permet de « voir en temps réel ce que voit le sujet et où il regarde » tandis que la seconde caméra scrute et analyse sa pupille. Les données sont ensuite répertoriées par le logiciel de mesures (3) « Gaze tracker », qui les analyse avec, à la fois une évaluation quantitative des points de fixation2 en se basant sur leurs nombres et leurs durées, ainsi qu'une mesure de la variation pupillaire fournie en pixels par le logiciel. Résultat(s) escompté(s) Il s'agit d'une étude exploratoire dans laquelle on espère retrouver les variations moyennes intra-sujets selon les hypothèses carte problème versus non problèmes. On peut s'attendre à trouver une retraduction des mesures de l'échelle ELADEB au travers de l'Eye tracking, ce qui concorderait avec les hypothèses énoncées et ajouterait encore d'avantage de validation à ELADEB au travers d'un outil pointu de mesure physiologique.
Resumo:
Dans le chapitre « Les paradoxes de l'argumentation en contexte d'éducation: s'accorder sur les désaccords », Muller Mirza part de l'idée qu'à la différence des situations ordinaires de désaccords, les dispositifs utilisant l'argumentation dans des contextes d'éducation demandent aux participants précisément de résoudre ces désaccords. Leur sont donc interdites, par contrat plus ou moins implicite, les échappatoires auxquelles nous recourons volontiers dans les discours quotidiens qui permettent d'éviter de problématiser la question en discussion. C'est dire qu'elle aborde directement une difficulté souvent signalée dans les études sur l'argumentation en contexte éducatif : la tension entre d'une part l'expression de points de vue différents, étape nécessaire à la construction des connaissances, et d'autre part la préservation de la relation entre les interlocuteurs, de leurs faces. Le chapitre propose comme objet de discussion le rôle de cette tension dans des situations d'apprentissage en analysant des productions argumentatives réalisées dans le cadre d'un dispositif particulier. Il invite ainsi à une réflexion non seulement sur les ingrédients des dispositifs pédagogiques qui permettraient de prendre en compte cette tension mais aussi sur les méthodes d'analyse des interactions argumentatives. L'étude de cas met en scène des étudiants de master en psychologie sociale, dans le cadre d'un jeu de rôle : ils sont placés dans la perspective de leur futur métier, et figurent des psychologues conseillant des éducateurs face à des jeunes qui utilisent des insultes racistes entre eux. Le dispositif mis en oeuvre satisfait quatre exigences d'ordre théorique, favorables selon l'auteure à une bonne résolution des désaccords : le ménagement des faces des interlocuteurs en fixant des rôles ne correspondant pas nécessairement aux positions de chacun ; la construction de connaissances,préalable à la discussion ; la médiation de l'échange par un outil, ici un « chat », qui permet d'échanger les points de vue et d'apporter une dimension réflexive en cours d'interaction sur les points de vue exprimés ; le fait de donner du sens à l'activité, en simulant une situation professionnelle potentielle. L'analyse des échanges a été réalisée sur onze corpus constitués par les étudiants en petits groupes de trois ou quatre travaillant sur un logiciel de « chat ». Les questions abordées étaient les suivantes : Comment les interlocuteurs négocient-ils les désaccords qui apparaissent au cours des échanges? Ces désaccords sont-ils propices à une problématisation? Les participants mettent-ils en oeuvre des dynamiques d'« exploration » du désaccord relevé? Cette analyse, inspirée d'une approche socioculturelle reprise en partie des travaux de Neil Mercer sur les « discours exploratoires », met en évidence des dynamiques argumentatives de qualité au cours desquels les désaccords sont non seulement exprimés mais également problématisés au sein des groupes. Elle met entre autres en évidence que le sens de l'activité pour les étudiants est en partie tributaire d'un contrat didactique et pédagogique : leurs échanges sont la base de leur évaluation universitaire. Néanmoins la similitude entre situation d'enseignement et situation professionnelle a largement été perçue par les étudiants et motivante pour eux, ce qui a certainement concouru également à la qualité des échanges.
Resumo:
Second-generation antipsychotics (SGAs) have become the first-line antipsychotic treatment for psychotic disorders due to their better overall tolerance compared to classical antipsychotics. However, metabolic side effects such as weight gain are frequently described during treatment with SGAs and/or other psychotropic drugs including some antidepressants and mood stabilizers, which may also result in poor adherence to treatment. The aim of this work was to investigate different methods to predict common side effects, in particular weight gain during treatment with weight gain inducing psychotropic drugs. Firstly, clinical data were used to determine the potential predictive power of a one month weight gain on weight increase after three and 12 months of treatment (n=351 patients). A fast and strong weight gain of >5% after a period of one month (>5%WG) was found to be the best predictor for an important weight gain at three (>15%) and 12 months (>20%). Similar analyses in an independent cohort of psychiatric adolescents (n=42), showed that a comparable >4% weight gain at one month is the best predictor for an important weight gain at three months (>15%). Secondly, we aimed to determine whether an extensive analysis of genes could be used, in addition to clinical factors, to predict patients at risk for >5%WG or for type 2 diabetes (T2D). Adding genetic markers to clinical variables to predict >5%WG increased significantly the area under the curve (AUC) of the analysis (AUCfinai:0.92, AUCdmicai:0.75, pcO.OOOl, n=248). Conversely, genetic risk scores were found to be associated with T2D (OR: 2.5, p=0.03, n=285) but without a significant increase of AUC'when compared to the prediction based to clinical factors alone. Finally, therapeutic drug monitoring was used to predict extrapyramidal symptoms during risperidone treatment (n=150). Active moiety (sum of risperidone and of its active metabolite 9- hydroxyrisperidone plasma concentrations) of >40 ng/ml should be targeted only in case of insufficient response. These results highlight different approaches for personalizing psychotropic treatments in order to reduce related side effects. Further research is needed, in particular on the identification of genetic markers, to improve the implementation of these results into clinical practice. Résumé Les antipsychotiques atypiques (APA) sont devenus le traitement antipsychotique de première intention pour le traitement des psychoses, grâce à un profil d'effets secondaires plus favorables comparé aux antipsychotiques typiques. Néanmoins, d'autres effets indésirables d'ordre métabolique (ex. prise pondérale) sont observés sous APA, stabilisateurs de l'humeur et/ou certains antidépresseurs, pouvant aussi limiter l'adhérence au traitement. L'objectif de ce travail est d'explorer différentes méthodes permettant de prédire des effets secondaires courants, en particulier la prise de poids durant un traitement avec des psychotropes pouvant induire un tel effet. Dans une première partie, des données cliniques ont été évaluées pour leurs potentiels prédictifs d'une prise de poids à un mois sur une prise de poids à trois et 12 mois de traitement (n=351 patients). Une prise de poids rapide et forte >5% à un mois (PP>5%) s'est avérée être le meilleur prédicteur pour une prise pondérale importante à trois (>15%) et 12 (>20%) mois de traitement. Des analyses similaires dans une cohorte pédiatrique (n=42) ont indiqué une prise de poids >4% à un mois comme le meilleur prédicteur pour une prise pondérale importante (>15%) à trois mois de traitement. Dans une deuxième partie, des marqueurs génétiques, en complément aux données cliniques, ont été analysés pour leur contribution potentielle à la prédiction d'une PP>5% et au dépistage du diabète de type 2 (DT2). L'ajout de variants génétiques aux données cliniques afin de prédire une PP>5% a augmenté significativement l'aire sous la courbe (ASC) de l'analyse (ASCflnai:0.92, ASCC|inique:0.75, p<0.0001, n=248). Concernant le DT2, un score génétique est associé au DT2 (OR: 2.5, p=0.03, n=285), néanmoins aucune augmentation significative de l'ASC n'a été observée par rapport à l'analyse avec les données cliniques seules. Finalement, des mesures de concentrations plasmatiques de médicaments ont été utilisées pour prédire la survenue de symptômes extrapyramidaux sous rispéridone (n=150). Cette analyse nous a permis d'établir qu'une concentration plasmatique de rispéridone associée à son métabolite actif >40 ng/ml ne devrait être recherchée qu'en cas de réponse clinique insuffisante. Ces différents résultats soulignent différentes approches pour personnaliser la prescription de psychotropes afin de réduire la survenue d'effets secondaires. Des études supplémentaires sont néanmoins nécessaires, en particulier sur l'identification de marqueurs génétiques, afin d'améliorer l'implémentation de ces résultats en pratique clinique. Résumé large publique Les antipsychotiques atypiques et autres traitements psychotropes sont couramment utilisés pour traiter les symptômes liés à la schizophrénie et aux troubles de l'humeur. Comme pour tout médicament, des effets secondaires sont observés. L'objectif de ce travail est d'explorer différentes méthodes qui permettraient de prédire la survenue de certains effets indésirables, en particulier une prise de poids et la survenue d'un diabète. Dans une première partie, nous avons évalué l'effet d'une prise de poids précoce sur une prise de poids au long terme sous traitement psychotrope. Les analyses ont mis en évidence dans une population psychiatrique qu'une prise de poids à un mois >5% par rapport au poids initial permettait de prédire une prise pondérale importante après trois (>15%) et 12 (>20%) mois de traitement. Un résultat semblable a. été observé dans un autre groupe de patients exclusivement pédiatriques. Dans une deuxième partie, nous avons évalué la contribution potentielle de marqueurs génétiques à la prédiction d'une prise pondérale de >5% après un mois de traitement ainsi que dans la survenue d'un diabète de type 2. Pour la prise de poids, la combinaison des données génétiques aux données cliniques a permis d'augmenter de 17% la précision de la prédiction, en passant de 70% à 87%. Concernant la survenue d'un diabète, les données génétiques n'ont pas amélioré la prédiction. Finalement, nous avons analysé la relation possible entre les concentrations sanguines d'un antipsychotique atypique couramment utilisé, la rispéridone, et la survenue d'effets secondaires (ici les tremblements). Il est ressorti de cette étude qu'une concentration plasmatique du médicament supérieure à 40 ng/ml ne devrait être dépassée qu'en cas de réponse thérapeutique insuffisante, au risque de voir augmenter la survenue d'effets secondaires du type tremblements. Ces résultats démontrent la possibilité de prédire avec une bonne précision la survenue de certains effets secondaires. Cependant, en particulier dans le domaine de la génétique, d'autres études sont nécessaires afin de confirmer les résultats obtenus dans nos analyses. Une fois cette étape franchie, il serait possible d'utiliser ces outils dans la pratique clinique. A terme, cela pourrait permettre au prescripteur de sélectionner les traitements les mieux adaptés aux profils spécifiques de chaque patient.
Resumo:
Background: The SNARE (Soluble N-ethylmaleimide-sensitive factor Attachment protein Receptors) and SM (Sec1/Munc18) family of proteins form the core machinery that drives the fusion of vesicles in different membrane trafficking steps. They are highly conserved, implying a similar mode of binding and function. In vertebrates, Munc18a is essential for neuronal exocytosis. It binds to its partner syntaxin1a (Syx1a) at both its N-peptide and closed conformation, and thereby inhibits SNARE complex formation in vitro. By contrast, its close homolog Munc18c is thought to interact with only the N-peptide of its partner Syx4. Moreover, different effects of Munc18c on SNARE complex formation have been reported, suggesting that the two Munc18/Syx pairs act differently. Objective: The aim of the present study was to investigate whether the mechanism of action of Munc18c indeed deviates from that of Munc18a by using sensitive biochemical and biophysical methods. Results: I found that Munc18c does have a similar binding mode as Munc18a and interacts tightly with Syx4 at both the N-peptide and closed conformation. Moreover, I established, through a novel assay, that Munc18c inhibits SNARE complex assembly, with both the binding sites contributing to inhibition, similar to Munc18a. However, there were several subtle differences between the two Munc18/Syx pairs. Munc18a exerted stronger inhibition than Munc18c. Also their respective Syx partners were found to differ in the rate of binding to SNAP25, suggesting that the equilibrium of their open and closed conformations is different. Moreover, Munc18a was found to interact with Syx 1, 2, 3 but not 4, while Munc18c bound to Syx 2, 4 and 1 but not 3. By comparing the kinetics of interaction of Syx with either Munc18 or SNAP25, I found that the block of SNARE complex assembly by Munc18 is effective on a shorter time scale, but SNAP25 eventually binds to Syx resulting in SNARE complex formation. Nevertheless, these findings do not explain how Syx can escape the tight grip of Munc18, suggesting that other proteins or mechanisms are needed for this step. I also discovered that Munc18 is able to bind on the surface of the SNARE core complex; however, this observation needs to be tested more rigorously. Conclusion: Munc18c was found to be similar to Munc18a in its mode of binding to Syx and inhibition of SNARE complex assembly. However, differences in kinetics and interaction specificities were observed between the different Munc18/Syx pairs. -- Contexte : Les familles des protéines SNARE (Soluble N-ethylmaleimide-sensitive factor At- tachment protein Receptors) et SM (Sec1/Munc18) forment le coeur de la machinerie chargée de la fusion vésiculaire au cours des différentes étapes du trafic intracellulaire. Elles sont très conservées, suggérant un mode d'interaction et des fonctions semblables. Chez les Verté- brés, Munc18a est essentielle à l'exocytose neuronale. Elle se lie à sa partenaire d'interaction syntaxin1a (Syx1a) à la fois via un peptide N-terminal et la conformation fermée de celle-ci, inhibant ainsi la formation du complexe SNARE in vitro. Son homologue proche Munc18c au contraire, est supposée interagir seulement avec le peptide N-terminal de sa partenaire Syx4. En outre, différents effets de Munc18c sur la formation du complexe SNARE ont été décrits, suggérant que les deux paires Munc18/Syx fonctionnent différemment. Objectif : Le but de cette étude est de tester si les mécanismes de fonctionnement de Munc18c diffèrent vraiment de ceux de Munc18a par le biais de méthodes biochimiques et biophysiques très précises. Résultats : J'ai pu démontrer que Munc18c se comporte en effet de façon semblable à Munc18a, et interagit étroitement avec Syx4 à ses deux sites de liaison. J'ai pu de surcroît montrer par une nouvelle méthode que Munc18c inhibe l'assemblage du complexe SNARE en impliquant ces deux sites de liaison, comme le fait Munc18a. il existe cependant de subtiles différences entre les deux paires Munc18/Syx : Munc18a exerce une inhibition plus forte que Munc18c ; leurs Syx partenaires diffèrent également dans leur degré de liaison à SNAP25, ce qui suggère un équilibre different de leurs conformations ouverte et fermée. De plus, Munc18a interagit avec Syx 1, 2 et 3 mais pas Syx 4, alors que Munc18c se lie à Syx 2, 4 et 1 mais pas Syx 3. En comparant les cinétiques d'interaction de Syx avec Munc18 ou SNAP25, j'ai découvert que le blocage par Munc18 de l'assemblage du complexe SNARE est effectif de façon brève, bien que SNAP25 finisse par se lier à Syx et aboutir ainsi à la formation du complexe SNARE. Ces découvertes n'expliquent cependant pas comment Syx parvient à échapper à la solide emprise de Munc18, et suggèrent ainsi l'intervention nécessaire d'autres protéines ou mécanismes à cette étape. J'ai également découvert que Munc18 peut se lier à la surface de la partie centrale du complexe SNARE - cette observation reste à être testée de façon plus stringente. Conclusion : Il a pu être établi que Munc18c est semblable à Munc18a quant à son mode de liaison à Syx et d'inhibition de l'assemblage du complexe SNARE. Des différences de cinétique et de spécificité d'interaction entre les diverses paires Munc18/Syx ont cependant été identifiées.
Resumo:
Introduction: Le retard de croissance intra-utérin (RCIU) est défini comme une incapacité du foetus à atteindre son plein potentiel de croissance. C'est une complication fréquente (affectant ~8% des grossesses), associée à un risque accru de mortalité et morbidité périnatales et de maladies chroniques à l'âge adulte, telles que les maladies coronariennes, l'hypertension, ou le diabète. Une croissance foetale adéquate est déterminée principalement par la disponibilité en oxygène et nutriments apportés au foetus par la circulation ombilico-placentaire. Chez l'homme, le tonus vasculaire ombilical est régulé majoritairement par la voie du monoxyde d'azote (NO)/GMPc. Nous avons émis l'hypothèse que le RCIU pourrait être associé à des altérations dans la régulation de la circulation ombilicale, en particulier dans la voie du NO/GMPc. Méthodes: Cette étude a été conçue pour identifier dans des cordons ombilicaux, les changements structurels, fonctionnels et moléculaires survenant en cas de RCIU, en particulier dans la veine om-bilicale. Résultats: De façon générale, le diamètre du cordon ombilical était significativement réduit chez les nouveau-nés avec RCIU par rapport aux contrôles. Les mesures histomorphométriques ont mis en évidence une diminution significative de la surface transversale totale ainsi que de muscle lisse dans la veine ombilicale en cas de RCIU. Les études pharmacologiques effectuées sur des anneaux vasculaires de veines ombilicales ont montré une diminution de la tension maximale induite par des vasoconstricteurs chez les garçons avec RCIU, et une réduction significative de la relaxation induite par le NO chez les filles avec RCIU. Cette altération de la relaxation s'accompagne de modifications de plusieurs composants de la voie du NO/GMPc au niveau du muscle lisse de la veine ombilicale des filles avec RCIU. Enfin l'addition d'un inhibiteur non-spécifique des phosphodiesterases (PDEs) a permis d'améliorer la réponse au NO dans tous les groupes et surtout de compenser la réduction de la relaxation induite par le NO chez les filles avec RCIU. Conclusion: Cette étude a permis de mettre en évidence des modifications structurelles dans le cordon ombilical de nouveau-nés présentant un RCIU, ainsi que des changements fonctionnels et moléculaires dans la veine ombilicale, en particulier dans la voie du NO/GMPc, qui pourraient contribuer au développement du RCIU. L'effet bénéfique de l'inhibition des PDEs sur la relaxation suggère qu'elles pourraient constituer des cibles thérapeutiques potentielles.
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.
Resumo:
« Les yeux sont du visage humain la partie la plus noble et la plus importante, les yeux sont composés de corps, d'âme et d'esprit, ou plutôt les yeux sont la fenêtre où l'âme et l'esprit viennent se montrer » (Alphonse Karr, 1853). L'oeil est le regard, mais pour l'ophtalmologue il est aussi une fenêtre ouverte et un regard possible sur le reste du corps. Prolongement du système nerveux central en contact direct avec le monde extérieur dont il est l'un des « senseurs » le plus subtil et le plus complexe, il est sujet à des réactions inflammatoires, allergiques et toxiques chez l'enfant et chez l'adulte. Alors que notre environnement visuel change (modification des systèmes d'éclairage domestique dans les villes, écrans, mode de vie et habitudes de travail), que les polluants se multiplient et se combinent et que les environnements climatisés deviennent la règle, le nombre de patients souffrant de pathologies de la surface oculaire atteint 30 % des motifs de nos consultations et le nombre des patients myopes est en hausse. L'oeil est l'un des « senseurs » le plus subtil et le plus complexe Si la surface oculaire peut aussi être le témoin des pathologies systémiques, c'est la rétine qui en est plus fréquemment le reflet. Les atteintes du lit vasculaire, du nerf optique ou de la rétine peuvent être des manifestations de pathologies générales ou d'effets secondaires ou toxiques de médicaments. L'examen du fond d'oeil et la rétinophotographie restent les examens de dépistage de référence en particulier pour la rétinopathie diabétique, véritable fléau mondial et première cause de cécité dans les pays industrialisés chez les jeunes adultes. Mais ce n'est que par la collaboration entre ophtalmologues, médecins traitants et autres spécialistes que les pathologies rétiniennes peuvent être prises en charge de façon optimale pour qu'à des traitements oculaires spécifiques soit associée la prise en charge globale des maladies causales ou interférentes. Au-delà du fond d'oeil, les progrès technologiques contribuent au développement de multiples méthodes d'exploration des différentes structures de l'oeil offrant ainsi la possibilité d'utiliser l'oeil comme témoin de manifestations précoces de maladies neurologiques périphériques ou centrales. L'imagerie cornéenne semble aujourd'hui capable de révéler et de suivre de façon longitudinale la neuropathie diabétique périphérique et il n'est pas impossible que la rétine devienne le site de détection précoce de la maladie d'Alzheimer. Sur le plan de la prise en charge, l'ophtalmologue ne peut pas se contenter de traiter l'oeil, il doit aussi assurer une prise en charge pluridisciplinaire et accompagner le patient qui, perdant la vision, est sujet à la dépression et à la majoration de tout autre handicap. La perte visuelle est le handicap le plus redouté des populations et la perte d'autonomie qu'il induit limite l'observance et le suivi thérapeutique (comparable en termes de gravité ressentie à un « alitement brutal dans les suites d'un AVC »). La médecine personnalisée et les interactions multidisciplinaires prennent ici tout leur sens. Les développements thérapeutiques ont été majeurs ces dernières années et la cécité n'est plus une fatalité, au moins dans certains cas. Mais la rétine étant un tissu nerveux post-mitotique, les traitements et donc le dépistage doivent être précoces pour prévenir la perte visuelle irréversible. Spécifiquement, les espoirs lointains comme la thérapie génique entrent dans les essais cliniques laissant entrevoir la lumière au bout du tunnel. A portée de vue, la rétine artificielle constitue une avancée concrète, encore perfectible mais accessible dès aujourd'hui. Si les progrès sont manifestes dans le domaine de l'ophtalmologie, il reste encore beaucoup à apprendre et à comprendre en particulier dans les mécanismes pathogéniques multifactoriels des maladies oculaires plus fréquentes. Seule une exploration approfondie des maladies humaines pourra nous permettre de mieux appréhender de nouvelles stratégies thérapeutiques. Comme le disait André Isaac (1893-1975), pour voir loin, il faut regarder de près.
Resumo:
Fruit d'une thèse de doctorat, cet ouvrage se propose de comparer les rythmes et les modalités de l'acculturation des populations de Gaule interne, de la première moitié du iie s. av. J.-C. au début du ier siècle de notre ère au moyen de l'étude de la céramique fine, dont le répertoire évolue très rapidement pendant la période. Basée sur les données d'une vingtaine de sites urbains (oppida, capitales de cité, vici) répartis en trois aires géographiques (Centre, Est et Centre-Ouest), cette étude propose une présentation céramologique classique, mais aussi des modes d'analyse nouveaux comme le calcul d'un indice de romanisation pour évaluer et comparer le degré d'acculturation des ensembles retenus. Différentes méthodes statistiques, comme des sériations graphiques ou des analyses factorielles des correspondances, sont par ailleurs employées pour mettre en évidence les aspects qualitatifs du phénomène d'acculturation et décomposer son processus en trois niveaux principaux. Illustrés par des tableaux synoptiques et par des cartes, les résultats des calculs d'indices de romanisation permettent d'identifier différents facteurs favorisant de manière évidente la romanisation de la vaisselle dite de table, comme la proximité de la Provincia, une localisation sur un axe majeur (Rhône/Saône, Loire) ou le dynamisme de grands centres d'échanges fréquentés par les mercatores romains (l'oppidum de Bibracte, notamment). Ces traitements statistiques permettent également de mettre en évidence des retards dans l'acculturation de certains peuples qui pourraient s'expliquer par leur hostilité envers Rome. Le phénomène est notamment illustré par les Helvètes, voisins de la Transalpina depuis 120 av. J.-C., dont la vaisselle fine est très peu romanisée avant l'intégration de ce peuple dans l'Empire, puis atteint rapidement après cet événement des niveaux particulièrement élevés. L'auteur propose enfin des réflexions sur la portée réelle des phénomènes observés en termes de romanisation de la vie quotidienne, une mutation technique et stylistique des récipients n'impliquant pas forcément l'adoption de nouvelles pratiques alimentaires.
Resumo:
Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.
Resumo:
Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.
Resumo:
La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.
Resumo:
Contexte : Parmi les infections nosocomiales, le Staphylocoque méticilline résistant (MRSA) est le germe pathogène le plus couramment identifié dans les hôpitaux du monde entier. La stratégie de contrôle des MRSA au CHUV implique le dépistage des patients à risque. Avec la méthode de dépistage par culture, le temps d'attente est de plusieurs jours. Ceci occasionne des problèmes dans la gestion des flux des patients, principalement à cause des mesures d'isolement. Pour réduire le temps d'attente, l'hôpital envisage d'utiliser une méthode de diagnostic rapide par "polymerase chain reaction" (PCR). Méthodologie : Les données concernant les dépistages réalisés, dans trois services durant l'année 2007, ont été utilisées. Le nombre de jours d'isolement a d'abord été déterminé par patient et par service. Ensuite une analyse des coûts a été effectuée afin d'évaluer la différence des coûts entre les deux méthodes pour chaque service. Résultats : Le principal impact économique de la méthode par PCR dépend principalement du nombre de jours d'isolements évités par rapport à la méthode de culture. Aux services de soins, l'analyse a été menée sur 192 dépistages. Quand la différence de jours d'isolement est de deux jours, le coût des dépistages diminue de plus de 12kCHF et le nombre de jours d'isolement diminue de 384 jours. Au centre interdisciplinaire des urgences, sur 96 dépistages, le gain potentiel avec la méthode PCR est de 6kCHF avec une diminution de 192 jours d'isolement. Aux soins intensifs adultes, la méthode de dépistage par PCR est la méthode la plus rentable avec une diminution des coûts entre 4KCHF et 20K CHF et une diminution des jours d'isolement entre 170 et 310. Pour les trois services analysés, les résultats montrent un rapport coût-efficacité favorable pour la méthode PCR lorsque la diminution des jours d'isolement est supérieure à 1.3 jour. Quand la différence de jours d'isolement est inférieure à 1.3, il faut tenir compte d'autres paramètres, comme le coût de matériel qui doit être supérieur à 45.5 CHF, et du nombre d'analyses par dépistage, qui doit être inférieur à 3, pour que la PCR reste l'alternative la plus intéressante. Conclusions : La méthode par PCR montre des avantages potentiels importants, tant économiques qu'organisationnels qui limitent ou diminuent les contraintes liées à la stratégie de contrôle des MRSA au CHUV. [Auteure, p. 3]
Resumo:
Contexte : Après les maladies cardiovasculaires, le cancer est la deuxième cause de mortalité en Suisse. Les cancers de la prostate, du sein, du côlon-rectum, du col utérin et le mélanome cutané représentent, en termes d'incidence et de mortalité, la moitié du fardeau du cancer en Suisse. Des moyens de prévention primaire et/ou secondaire contribuent à réduire la fréquence et la mortalité due à ces cinq cancers. Cependant, l'attitude face à la prévention diffère selon les individus et dépend de multiples facteurs socio-économiques, environnementaux, culturels et comportementaux. Objectif : Évaluer la fréquence et identifier les déterminants des pratiques de dépistage des cancers de la prostate, du sein, du côlon-rectum, du col utérin et du mélanome cutané en Suisse. Matériel et méthode : Les données utilisées sont issues de l'Enquête suisse sur la santé 2007. Une pondération statistique permet d'extrapoler les résultats à la population générale. Des modèles de régression logistique multivariée ont été construits afin de décrire l'association entre pratique du dépistage et facteurs sociodémographiques, style de vie, état de santé, recours aux prestations de santé et soutien social. Résultats : En 2007, selon les méthodes et fréquences recommandées en Suisse et dans les tranches d'âge concernées, 49% des hommes ont effectué un dépistage du cancer prostatique, 13% du cancer colorectal et 33,7% du mélanome cutané. Chez les femmes, 17,9% ont réalisé un dépistage du cancer du sein, 8,7% du cancer colorectal, 36,8% du mélanome cutané et 50,2% du cancer du col utérin. Globalement et pour les deux sexes, l'âge, le lieu de résidence, le niveau de formation, la classe socioprofessionnelle, le revenu d'équivalence du ménage, la pratique d'autres dépistages des cancers, le nombre de visites médicales et de jours d'hospitalisation au cours des 12 mois précédents déterminent le recours au dépistage des cancers d'intérêt. Chez les hommes, la présence d'un médecin de famille et, chez les femmes, la franchise annuelle, influencent aussi la pratique du dépistage. Conclusion : Les prévalences du dépistage varient notablement selon le type de cancer. Le recours aux dépistages des cancers dépend de facteurs sociodémographiques, de l'utilisation des services de santé et de la pratique d'autres dépistages, mais peu, voire pas, du style de vie, de l'état de santé et de la sécurité et du soutien sociaux. Les facteurs identifiés sont souvent communs aux différents types de cancer et rendent possible l'établissement d'un profil général d'utilisateurs du dépistage des cancers. Les stratégies visant à améliorer la compliance aux examens de dépistage devraient considérer les facteurs qui en déterminent le recours et mieux cibler les segments de la population qui les sous-utilisent.