1000 resultados para Méthode des symétries conditionnelles


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte: la planification infirmière de sortie des personnes âgées est une composante importante des soins pour assurer une transition optimale entre l'hôpital et la maison. Beaucoup d'événements indésirables peuvent survenir après la sortie de l'hôpital. Dans une perspective de système de santé, les facteurs qui augmentent ce risque incluent un nombre croissant de patients âgés, l'augmentation de la complexité des soins nécessitant une meilleure coordination des soins après la sortie, ainsi qu'une augmentation de la pression financière. Objectif: évaluer si les interventions infirmières liées à la planification de sortie chez les personnes âgées et leurs proches aidants sont prédictives de leur perception d'être prêts pour le départ, du niveau d'anxiété du patient le jour de la sortie de l'hôpital et du nombre de recours non programmé aux services de santé durant les trente jours après la sortie. Méthode: le devis est prédictif corrélationnel avec un échantillon de convenance de 235 patients. Les patients âgés de 65 ans de quatre unités d'hôpitaux dans le canton de Vaud en Suisse ont été recrutés entre novembre 2011 et octobre 2012. Les types et les niveaux d'interventions infirmières ont été extraits des dossiers de soins et analysés selon les composantes du modèle de Naylor. La perception d'être prêt pour la sortie et l'anxiété ont été mesurées un jour avant la sortie en utilisant l'échelle de perception d'être prêt pour la sortie et l'échelle Hospital Anxiety and Depression. Un mois après la sortie, un entretien téléphonique a été mené pour évaluer le recours non programmé aux services de santé durant cette période. Des analyses descriptives et un modèle randomisé à deux niveaux ont été utilisés pour analyser les données. Résultats: peu de patients ont reçu une planification globale de sortie. L'intervention la plus fréquente était la coordination (M = 55,0/100). et la moins fréquente était la participation du patient à la planification de sortie (M = 16,1/100). Contrairement aux hypothèses formulées, les patients ayant bénéficié d'un plus grand nombre d'interventions infirmières de préparation à la sortie ont un niveau moins élevé de perception d'être prêt pour le départ (B = -0,3, p < 0,05, IC 95% [-0,57, -0,11]); le niveau d'anxiété n'est pas associé à la planification de sortie (r = -0,21, p <0,01) et la présence de troubles cognitifs est le seul facteur prédictif d'une réhospitalisation dans les 30 jours après la sortie de l'hôpital ( OR = 1,50, p = 0,04, IC 95% [1,02, 2,22]). Discussion: en se focalisant sur chaque intervention de la planification de sortie, cette étude permet une meilleure compréhension du processus de soins infirmiers actuellement en cours dans les hôpitaux vaudois. Elle met en lumière les lacunes entre les pratiques actuelles et celles de pratiques exemplaires donnant ainsi une orientation pour des changements dans la pratique clinique et des recherches ultérieures. - Background: Nursing discharge planning in elderly patients is an important component of care to ensure optimal transition from hospital to home. Many adverse events may occur after hospital discharge. From a health care system perspective, contributing factors that increase the risk of these adverse events include a growing number of elderly patients, increased complexity of care requiring better care coordination after discharge, as well as increased financial pressure. Aim: To investigate whether older medical inpatients who receive comprehensive discharge planning interventions a) feel more ready for hospital discharge, b) have reduced anxiety at the time of discharge, c) have lower health care utilization after discharge compared to those who receive less comprehensive interventions. Methods: Using a predictive correlational design, a convenience sample of 235 patients was recruited. Patients aged 65 and older from 4 units of hospitals in the canton of Vaud in Switzerland were enrolled between November 2011 and October 2012. Types and level of interventions were extracted from the medical charts and analyzed according to the components of Naylor's model. Discharge readiness and anxiety were measured one day before discharge using the Readiness for Hospital Discharge Scale and the Hospital Anxiety and Depression scale. A telephone interview was conducted one month after hospital discharge to asses unplanned health services utilization during this follow-up period. Descriptive analyses and a two- level random model were used for statistical analyses. Results: Few patients received comprehensive discharge planning interventions. The most frequent intervention was Coordination (M = 55,0/100) and the least common was Patient participation in the discharge planning (M = 16,1/100). Contrary to our hypotheses, patients who received more nursing discharge interventions were significantly less ready to go home (B = -0,3, p < 0,05, IC 95% [-0,57, -0,11]); their anxiety level was not associated with their readiness for hospital discharge (r = -0,21, p <0,01) and cognitive impairment was the only factor that predicted rehospitalization within 30 days after discharge ( OR = 1,50, p = 0,04, IC 95% [1,02, 2,22]). Discussion: By focusing on each component of the discharge planning, this study provides a greater and more detailed insight on the usual nursing process currently performed in medical inpatients units. Results identified several gaps between current and Best practices, providing guidance to changes in clinical practice and further research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

1.1. La greffe de rein La greffe d'organes a révolutionné la médecine. De tout le temps elle a suscité les fantasmes et les rêves : la pratique est ancestrale ; elle remonte au 3ème siècle lorsque Saint Côme et Saint Damien réalisent pour la première fois une greffe de jambe de Maure sur un patient. Il faudra néanmoins attendre le 20ème siècle pour voir la transplantation se réaliser plus concrètement avec succès et se généraliser. A Vienne, en 1902, le Dr. Ulmann (1861-1937) pratique la toute première autogreffe de rein sur un chien. Il replace le rein de l'animal au niveau du cou, pratiquant une anastomose vasculaire. Depuis, les tentatives se multiplient et peu après le Dr. Von Decastello, pratique la première transplantation chien-chien. Par la suite, en associa- tion avec le Dr. Ulmann la première greffe entre un chien et une chèvre aura lieu, avec un certain succès. En effet, elle a permis à l'animal receveur de produire de l'urine. L'avancée majeure durant ce début de siècle fut le développement d'une nouvelle technique de suture vasculaire par le Dr. Carrel, qui obtiendra le prix Nobel en 1912. Son élève, le Dr. Jaboulay (1860-1913) a réalisé plusieurs tentatives de xénogreffes rénales. Il pratiquera en 1906 les deux premières xénogreffes en utilisant un cochon et une chèvre comme donneurs. Le greffon fut respectivement placé au niveau de la cuisse et du bras des patients. La fonction rénale durera une heure. En 1909 Ernest Unger (1875-1938) transplanta un rein de fox-terrier sur un boxer, avec une production d'urine pendant 14 jours. Durant la même année le Dr. Unger a pratiqué une xénogreffe en transplantant un rein de nouveau né sur un babouin, cette intervention se terminant par la mort de l'animal. Un autre essai de greffe singe à humain, pratiqué sur une femme mourant de défaillance rénale, a fait comprendre à Unger qu'il y a des barrières biologiques dans la transplantation, mais que la greffe rénale est techniquement faisable. En 1914, J.B. Murphy découvre l'importance de la rate et de la moelle osseuse dans la réponse immune. En 1933 et 1949 en Ukraine, les premières allogreffes humaines de reins sont pratiquées par le chirurgien soviétique Yu Yu Voronoy. Malheureuse- ment aucune fonction rénale des greffons n'a été observée. Après une période de « stagnation scientifique » générale qui durera à peu près 10 ans, l'intérêt pour la transplantation refait surface dans les années 1950. Deux équipes de chirurgien se forment : une à Boston et l'autre à Paris. De nombreux cas d'allogreffes humaines sans immunosuppression sont documentés de 1950 à 1953. Malheureusement chaque opération aboutit à un échec, ceci dû aux phénomènes du rejet. M. Simonsen et WJ. Dempster découvrent qu'un mécanisme immun est à la base du rejet. Ils établissent aussi que la position pelvienne était meilleure que la position plus superficielle. Grâce aux découvertes dans le domaine du rejet et les nombreux progrès techniques, une allogreffe entre vrais jumeaux est pratiquée à Boston en 1954. L'opération est un succès total et permet de contrer toutes les hypothèses négatives avancées par certains groupes de travail. Depuis 1948, de nombreux travaux dans le domaine de l'immunosuppression ont été entrepris. La découverte de l'action immunosuppressive de la cortisone permet son instauration dans le traitement anti-rejet, malheureusement avec peu de succès. En effet, l'irradiation totale reste la méthode de choix jusqu'en 1962, date de l'apparition de l'Azaothioprine (Imuran®). La découverte de l'Azaothioprine, permet d'avancer de nouvelles hypothèses concernant le rejet : en évitant le rejet post-opératoire aigu, une protection et une adaptation au receveur pourraient être modulées par l'immunosuppression. Dans les années 1960, l'apparition des immunosuppresseurs de synthèse permet de développer de nouvelles lignes de traitement. Le Dr.Starzl et ses collègues, découvrent l'efficacité d'un traitement combiné de Prednisone et d'Azathioprine qui devient alors le standard d'immunosuppression post greffe durant cette période. Les années 60 et 70 sont des années d'optimisme. La prise en charge des patients s'améliore, le développement de la dialyse permet de maintenir en vie les patients avant la greffe, les techniques de conservation des organes s'améliorent, la transplantation élargit son domaine d'action avec la première greffe de coeur en 1968. Le typage tissulaire permet de déterminer le type d'HLA et la compatibilité entre le re- ceveur et le donneur afin de minimiser les risques de rejet aigu. Les années 1970 se caractérisent par deux amélioration majeures : celle du typage HLA-DR et l'apparition des inhibiteurs de la calcineurine (Cyclosporine A). Ce dernier restera l'agent de premier choix jusqu'aux alentours des années 1990 où apparaissaient de nouveaux immunosuppresseurs, tels que les inhibiteurs mTOR (siroli- mus) et les inhibiteurs de l'inosine monophosphate déshydrogénase (mycophénolate mofétil), par exemple. En conclusion, la transplantation rénale a été une des premières transplantations d'organes solides pratiquées sur l'homme avec de nombreux essais cliniques impliquant une multitude d'acteurs. Malgré des périodes de hauts et de bas, les avancements techniques ont été notables, ce qui a été très favorable en terme de survie pour les patients nécessitant une greffe. 1.2. Le lymphocèle La greffe rénale, comme toute autre acte chirurgical, comporte des risques et une morbidité spécifique. Le lymphocèle a la prévalence la plus élevée, qui peut aller de 0.6 à 51% 1-3 avec des variations entre les études. Le lymphocèle est défini comme une collection post opératoire de liquide lymphatique dans une cavité non épithélialisée et n'est pas causée par une fuite urinaire ou une hémorragie1, 4. Historiquement, le lymphocèle a été décrit pour la première fois dans la littérature médicale dans les années 1950, par Kobayashi et Inoue5 en chirurgie gynécologique. Par la suite Mori et al.6 en 1960 documentent la première série d'analyse de lymphocèles. En 1969 le lymphocèle est décrit pour la première fois par Inociencio et al.7 en tant que complication de greffe rénale. Sa pathogénèse n'est pas complètement élucidée, cependant plusieurs facteurs de risque ont été identifiés tels que : la ligature inadéquate des vaisseaux lymphatiques lors de la dissection des vaisseaux iliaques du donneur et de la préparation du greffon, le BMI, les diurétiques, l'anticoagulation (héparine), les hautes doses de stéoïdes, certains agents immunosuppresseurs (sirolimus), le diabète, les problèmes de cicatrisation, une hypoalbuminémie, une chirurgie rétropéritonéale préalable et le rejet aigu de greffe. (Tableau 1) Une symptomatologie peut être présente ou absente : elle découle directement de la localisation et de la taille de la collection8, 9, 10. Lorsqu'on se trouve devant un tableau de lymphocèle asymptomatique, la découverte se fait de manière fortuite lors d'un contrôle de suivi de greffe11, 12 cliniquement ou par échographie. En cas de lymphocèle non significatif cela ne requiert aucun traitement. Au contraire, lorsqu'il atteint une certaines taille il provoque un effet de masse et de compression qui provoque la symptomatologie. Cette dernière est peu spécifique et apparait en moyenne entre 2 semaines et 6 mois 13 après la greffe. Le patient va se présenter avec un tableau pouvant aller de la simple douleur abdominale en passant par un oedème du membre inférieur ou, dans de plus rares cas, une thrombose veineuse profonde sera le seul signe consécutif au lymphocèle14, 15. La plupart du temps on observera des valeurs de créatinine élevées, signant une souffrance rénale. Le diagnostic du lymphocèle peut se faire selon plusieurs techniques. La plus utilisée est la ponction à l'aiguille fine sous guidage ultrasonographique4. L'analyse du liquide ponctionné permet de différencier un lymphocèle d'un urinome. Les autres techniques existantes sont : la ponction après injection de carmin d'indigo15, un pyelogramme intraveineux et un lymphangiogramme16, le CT-Scan ou l'IRM15. Le dosage sanguin d'IL6 et IL8 est parfois utilisé pour déterminer si le lymphocèle est infecté.15 Suite à l'apparition d'une collection symptomatique; le rein transplanté peut être dans une situation à risque pour laquelle un traitement doit être entrepris. A l'heure actuelle, il n'existe pas de solution universelle dans la prévention et le traitement de ce type de complication. Les solutions sont multiples et dépendent principalement de la localisation et de la taille de la collection. Pendant de nombreuses années, le seul traitement du lymphocèle a été celui de l'aspiration percutanée simple. Cette dernière conduit cependant à un taux de récidive de presque 100%.17 Cette technique reste une solution utilisée principalement à visée diagnostique18, 19, 20, 21 ou pour soulager les patients à court terme15. Pour améliorer l'efficacité de cette technique on a fait appel à des agents sclérosants comme l'éthanol, la povidone-iodine, la tétracycline, la doxycycline ou de la colle de fibrine. Des complications chirurgicales ont cependant été rapportées, pouvant aller jusqu'au rejet de greffe22. La fenestration par laparoscopie a été décrite pour la première fois en 1991 par McCullough et al.23 Cette technique reste, de nos jours, la technique la plus utilisée pour le traitement du lymphocèle. Elle a de nombreux avantages : un temps de convalescence court, des pertes de sang minimes et une réalimentation rapide24, 25. On constate en outre la quasi absence de récidives après traitement11, 26. L'évaluation radiologique est très importante, car la marsupialisation par laparoscopie est limitée par l'emplacement et le volume de la collection. Ainsi, on évitera ce type de traite- ment lorsque la collection se situera postérieurement, à proximité de la vessie, de l'uretère ou du hile rénal. Dans ces situations, la laparotomie s'impose malgré l'augmentation de la morbidité liée à cette technique24. Actuellement on cherche à trouver une technique universelle du traitement des lymphocèles avec la chirurgie la moins invasive possible et le taux de récidive le plus faible possible. Malgré ses li- mites, la fenestration par laparoscopie apparaît comme une très bonne solution. Cette étude consiste en une évaluation rétrospective des traitements chirurgicaux de cette complication post-opératoire de la greffe rénale au CHUV (Centre Hospitalier Universitaire Vaudois) de 2003 à 2011. Le but est de recenser et analyser les différentes techniques que l'on observe actuellement dans la littérature et pouvoir ainsi proposer une technique idéale pour le CHUV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectifs : Il s'agit d'une étude descriptive, rétrospective, de la prévalence des comorbidités dans une population de patients atteints de la maladie de la goutte et hospitalisés dans le Centre Hospitalier Universitaire de Lausanne (CHUV) entre le 1er janvier 2008 et le 31 décembre 2010, ainsi qu'une analyse descriptive des différents traitements employés. Méthode : Les codes diagnostiques AP-DRG des archives électroniques du CHUV ont été utilisés dans le but de faire une analyse manuelle des dossiers. 259 dossiers de patients ont étés analysés et ont permis une description démographique, une analyse de la prévalence des comorbidités, ainsi qu'une description des différents traitements et complications. Résultats : La goutte à Lausanne touche principalement les hommes (78% des patients), l'âge moyen est de 76 ans et 7 mois chez les hommes contre 80 ans et 7 mois chez les femmes. Les tranches d'âge les plus concernées, avec 34.2% des hommes et 42.11% des femmes sont les 75-85 ans. L'espérance de vie est supérieure de 6 ans et demie chez les femmes. 75% des patients ont un excès de poids, 26 % sont obèses. Les comorbidités principales sont l'hypertension artérielle (85% des patients), L'insuffisance rénale chronique (50.2%), les cardiopathies ischémiques (35.7%), le diabète de type II (34.4%), l'alcoolisme chronique (22.5%), les néoplasies (16.7%) et les lithiases rénales (5.4%). La goutte se présente principalement (92.8%) sous forme de crise. La prise en charge par le service de rhumatologie concerne seulement 21.4% des patients. 82.5% des patients suivent un traitement médicamenteux, qui comprend principalementdes AINS (79% des patients), de l'allopurinol (53%, dont 3.6% d'intolérance), de la colchicine (34.6%) et des corticoïdes (27%). Les traitements des comorbidités sont les traitements antihypertenseurs (56.7% d'inhibiteurs de l'enzyme de conversion de l'angiotensine et 56.6% des diurétiques de l'anse). Parmi les patients traités avec un AINS, 54.4% sont en insuffisance rénale chronique, 62% en insuffisance cardiaque et 41% ont un épisode de cardiopathie ischémique. 50% des patients traités avec de la colchicine ont une insuffisance cardiaque et 30% ont eu une cardiopathie ischémique. Parmi les patients qui ont eu un épisode infectieux, la crise de goutte est apparue chez 80% d'entre eux avant l'infection. Conclusion : La goutte est une maladie concernant une tranche de la population qui présente des comorbidités importantes sur le plan cardiovasculaire et métabolique, dont il faut tenir compte lors de l'élaboration d'un traitement de la crise ou d'un plan de traitement préventif de l'hyperuricémie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[Table des matières] 1. Introduction. 2. Concepts et modèles d'ancrage. 3. Méthode. 4. Analyse de l'ancrage des programmes. 4.1 Programme Prévention des dépendances dans les communes (RADIX). 4.2 Programme Voilà. 4.3 Programme Fil rouge. 4.4 Programme Funtasy Projects. 4.5 Programme-cadre Ecoles et santé / REES-CH. 4.6 La "Formation des médiateurs scolaires de Suisse romande et du Tessin" et le Projet "Médication" (Ecoles et santé). 4.7 Programme "Drogue ou Sport?", Service "Drogues et sport", Programme "Sport et drogues" / LaOla. 4.8 Les projets soutenus par le Bureau suisse pour la réduction des risques liés aux drogues (OSEO). 4.9 Matériel de prévention de la toxicomanie produit par l'ISPA. 5. Conclusions : Les éléments transversaux d'ancrage des programmes. 6. Annexes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

IntroductionUn cercle de qualité médecins-pharmaciens (CQ) pour la prescription médicamenteuse repose sur une démarche systémique coordonnée par des pharmaciens d'officine visant l'amélioration continue de la sécurité et de l'efficience des prescriptions de médecins de premier recours. Les trois éléments clés de ce concept collaboratif sont 1) le travail en réseau au niveau local ; 2) les données de prescription médicale et le retour d'informations (feedback) décrivant de manière comparative les coûts, le choix et la fréquence des médicaments prescrits ; 3) le matériel standardisé de formation continue interdisciplinaire.L'objectif de la présente étude est d'évaluer sur une période de onze ans (1999-2009) l'impact pharmacoéconomique et pharmacothérapeutique de six CQs pionniers (24 médecins et 6 pharmaciens), localisés dans le canton de Fribourg.Méthode: L'étude mesure notamment l'impact sur les coûts globaux de prescription des médecins des CQs en comparaison avec un groupe contrôle de médecins omnipraticiens travaillant hors CQ entre 1999-2009. La maîtrise des coûts engendrée est détaillée pour cinq index thérapeutiques de la classe des médicaments cardiovasculaires, y compris le pourcentage des génériques et celui des emballages de sartans dans la classe dite des antihypertenseurs. Les données sont issues des données de facturation fournies par la Coopérative professionnelle pour les pharmaciens suisses (OFAC).Résultats: Concernant la maîtrise des coûts annuels des médicaments par patient, la différence cumulée entre les CQs et le groupe contrôle est en 2009 de 43% en faveur des cercles (cf. Fig. 1). Ceci représente pour 2009 uniquement une économie de 245'000 CHF par médecin. Ces résultats s'expliquent par un profil de prescription médicale plus efficient, une meilleure pénétration des génériques (cf. Fig. 2), une attitude plus pondérée vis-à-vis des stratégies marketing, une formation continue interdisciplinaire spécialisée à propos de l'usage rationnel des médicaments, une meilleure application des recommandations nationales ou internationales.Conclusion: Cette évaluation a confirmé l'intérêt des CQs comme réseau local de collaboration en médecine de premier recours. Les médecins travaillant avec les pharmaciens modifient leurs prescriptions de manière claire et durable. Ce projet interdisciplinaire de qualité des soins montre que la maîtrise des coûts médicamenteux est obtenue sans concession à la qualité des traitements.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Relevant globalement de l'analyse de discours, cette thèse se propose en deux temps (questions de méthode, puis analyses) d'étudier dans le détail et d'interpréter des lettres asilaires initialement gardées au sein d'archives médicales de différents hôpitaux psychiatriques de Suisse romande et désormais conservées à la Collection de l'Art Brut, à Lausanne. Ce transfert institutionnel noue le problème central posé par le corpus recueilli : quelle lecture accorder à ces productions qui, dans ces conditions, semblent échapper à toute catégorisation générique a priori ou, en reformulant l'interrogation, en quoi est-ce que les oeuvres d'art brut dépassent-elles leur statut de documents cliniques? Pour répondre à cette ample question, il faut une théorie du langage qui conceptualise des modalités de réception. En l'occurrence, les textes retenus sont abordés à partir de la théorie de Yénonciation, élaborée au moins depuis Emile Benveniste, qui implique de saisir le langage non à partir de la perspective de l'interprété mais depuis celle de l'interprétant.¦Une fois ce fondement énonciatif posé, de nombreux problèmes peuvent être posés et permettent d'architecturer le travail. L'énonciation installe en premier lieu l'univers du discours, qui implique de tenir globalement compte du primat de l'interdiscursivité, autant dans le geste raisonné de constitution du corpus que dans la conduite de son interprétation. En l'occurrence, la thématique de la folie est ici centrale : les production retenues ont en effet d'abord fait l'objet du diagnostic psychiatrique et y ont eu valeur de symptômes ; elles ont ensuite intégré les rangs de la Collection de l'Art Brut, dont les principaux artisans (Jean Dubuffet et Michel Thévoz en tête) ont beaucoup insisté sur le renouvellement du regard à apporter sur la folie, celle-ci y étant considérée pour ses vertus créatrices et contestatrices.¦Le cadrage (doublement) dialogique du corpus implique à grands traits de lier la folie et le langage ou, plus spécifiquement, de faire de la folie non plus une pathologie mais un problème de (théorie du) langage. Pour conceptualiser ce passage, les notions de manie et de manière (Dessons) sont primordiales. La première est dotée d'une mémoire psychiatrique et fait de la folie une maladie mentale dont souffre un individu doté de son empirie et d'une psycho-biologie. La seconde, en revanche, est énonciative et concerne la subjectivation d'un langage, si spécifique qu'il implique de sortir des catégories linguistiques conventionnelles pour le désigner et le décrire, inaptes à le rationaliser. La manière rejoint donc la folie parce qu'elle rend, littéralement, fou (elle déstabilise nos grilles préformatées de lecture). En ce sens, elle implique, dans le discours, de passer d'une énonciation qui n'est pas une simple interlocution (où le langage permet à un sujet de communiquer à propos de quelque chose à un autre sujet) à une énonciation dont la réception fait problème.¦Pour saisir cette énonciation dans le discours, il importe de se débarrasser d'une rhétorique des genres pour passer, radicalement, à une poétique de Γénonciation. La rhétorique ne peut appréhender la spécificité des textes retenus ou, autrement dit, leur mode propre de signifier, pour plusieurs raisons : elle se centre sur les effets provoqués par le discours sur un « auditoire » en vue de certaines visées préalables, elle instrumentalise le langage à des fins uniquement communicatives, elle repose sur un réalisme linguistique (le rapport presque naturel entre le signifiant et le concept qu'il est censé transcrire de façon transparente), elle n'a pas de théorie du sujet (sinon un bien trop flou « locuteur »).¦Une poétique de l'énonciation offre « au contraire » (l'opposition est caricaturale ici) l'avantage de traiter dans le discours d'une énonciation qui n'est pas pensée à partir de modèles collectifs (genres, signe linguistique, ...). Dans ce dernier cas, l'appréhension du discours ne peut considérer que des variations (quand ce n'est pas des « déviances » ou des symptômes) internes à tel ou tel modèle générique, pas remis en cause comme tel. En somme, une poétique renverse la pensée du langage : elle ne l'appréhende plus à partir de catégories qui lui sont externes, mais s'intéresse à des « procédés » indésignables a priori, ou, plus globalement, à un mode spécifique de signifier, c'est-à-dire qu'il ne « fait sens » que pour un seul langage - et pas un autre.¦Le langage est alors si subjectivé qu'il confond son statut d'objet avec celui de sujet. Pour preuve, on ne le désigne plus dans le discours à partir d'une catégorie sociale générique (« c'est une lettre »), mais à partir d'un « nom d'auteur » ou, plus spécifiquement, une manière (« c'est un Aloïse », par exemple pour le cas d'une oeuvre apparentée à l'art brut), sujet théorique de l'énonciation artistique. Cette forme-sujet, comme la nommait Henri Meschonnic dans sa théorie dite du poème, se reconnaît dans l'unité (sémantique) du texte et ouvre dans le discours à un système-sujet d'organisation identifiable à l'échelle élargie d'une oeuvre. Elle permet d'inscrire pleinement la démarche dans le cadre englobant non seulement de l'analyse du discours mais aussi d'une anthropologie linguistique.¦En somme, l'objet au centre de nos préoccupations fait de ce passage (d'une rhétorique à une poétique) un problème épistémologique. Les oeuvres d'art brut impliquent de passer d'une discursivité à une autre, d'une folie psychiatrique à une folie artistique, déplaçant la folie dans le champ social. Le langage dessine bel et bien la société. Ce travail permet finalement de comprendre la contribution du langage à la construction des réalités sociales, dans l'élaboration du sens qui s'y fabrique. Son orientation herméneutique aboutit à identifier une nouvelle figure de l'altérité, inscrite au sein même de la pensée linguistique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte :¦Les affections neuromusculaires sont des maladies rares, le plus souvent d'origine génétique et dont le degré de sévérité est variable. Certaines sont progressives et conduisent à une perte de l'indépendance motrice et à une insuffisance respiratoire, tandis que d'autres permettent une vie proche de la normale.¦Les progrès des connaissances en génétique moléculaire ont permis d'améliorer significativement la connaissance des mécanismes physiopathologiques de ces maladies et ont également ouverts la voie à de nouvelles possibilités thérapeutiques. Concernant les maladies les plus graves, le but premier de ces thérapies sera de tenter de préserver la marche indépendante le plus longtemps possible. Toutefois, les patients ayant déjà perdu la marche et qui dépendent de la fonction de leur membres supérieurs pour garder une certaine indépendance devront également pouvoir être inclus dans des essais thérapeutiques et bénéficier des traitements reconnus efficaces.¦De nouveaux moyens de mesure de la fonction motrice des membres supérieurs doivent être développés non seulement dans la perspective de ces éventuels essais thérapeutiques pour ces patients limités à la chaise roulante, mais également dans le but de pouvoir évaluer plus précisément l'histoire naturelle des maladies même après la perte de la marche indépendante.¦Objectifs:¦Evaluer la fonction motrice des membres supérieurs chez des patients myopathes ayant perdu la marche indépendante par mesure cinématique.¦Méthode :¦Mesure de l'activité des membres supérieurs et le profil de cette activité par mesure cinématique (Physilog) chez:¦-Vingt-cinq patients atteints d'une myopathie en chaise roulante.¦-Vingt-cinq sujets contrôle assis¦Ces mesures seront comparées aux scores obtenus à l'échelle de Mesure de Fonction Motrice (Bérard et al, 2005) et plus précisément à l'axe D3 de cette échelle qui évalue les fonctions distales.¦Les patients seront vus à deux reprises pour une période de deux fois deux heures pendant laquelle ils porteront le Physilog. Il leur sera demandé d'effectuer une série d'exercices afin d'évaluer la fonction motrice des membres supérieurs (manger un yaourt avec une cuillère, verser un verre d'eau et le boire, se toucher selon les possibilités la tête, le front, la bouche, le cou, jouer à la console Wii) Le score de Brooke sera également testé. Chaque exercice sera répété plusieurs fois afin de d'assurer de la qualité des résultats.¦Système portable Physilog :¦Physilog est un système de mesure ambulatoire. La version utilisée dans cette étude est composée de 2 capteurs miniatures et d'une unité numérique portable légère (~215 g), qui filtre, amplifie et sauvegarde les signaux fournis par les capteurs sur une carte mémoire (Physilog-BioAGM, CH).¦Afin de pouvoir enregistrer l'activité des deux membres supérieurs, deux appareils Physilog (4 capteurs) seront utilisés par patient. Deux capteurs seront fixés sur chaque membre supérieur. Les capteurs sont fixés sur la peau à l'aide d'une bande autocollante.¦Les capteurs mis au point par le LMAM (laboratoire de mesure et d'analyse du mouvement) mesurent la rotation angulaire et l'accélération au niveau des membres supérieurs. L'algorithme utilisé dans cette étude a été développé dans le laboratoire LMAM à l'EPFL et a fait l'objet d'une thèse.¦Résultats escomptés :¦Les résultats de l'étude pilote montrent que le Physilog permet de quantifier de manière fiable et reproductible la fonction des membres supérieurs durant des activités courantes de la vie quotidienne et pourrait donc devenir un moyen d'évaluation fiable des nouveaux traitements.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'index de consommation du glucose, SUV pour standardized uptake value, est largement utilisé en tomographie par émission de positons (TEP) pour quantifier la concentration relative de [18F]2-fluoro-2-désoxy-D-glucose (18F-FDG) dans les tissus. Cependant, cet indice dépend de nombreux facteurs méthodologiques et biologiques et son utilisation fait débat. Il est donc primordial d'instaurer un contrôle qualité régulier permettant d'assurer la stabilité de la mesure des indices quantitatifs. Dans cette optique, un fantôme spécifique avec inserts cylindriques de différentes tailles a été développé. L'objectif de cette étude est de montrer la sensibilité et l'intérêt de ce fantôme. Méthodes. - La sensibilité du fantôme a été étudiée à travers la mesure des SUV et des coefficients de recouvrement (RC). Plusieurs méthodes de mesure ont été utilisées. Les données ont été reconstruites en utilisant les algorithmes de routine clinique. Nous avons étudié la variation des RC en fonction de la taille des cylindres et le changement relatif de fixation, en utilisant des activités différentes. Le fantôme a ensuite été testé sur l'appareil d'un autre centre. Résultats. - Pour toutes les méthodes de mesure, une forte variation des RC avec la taille des cylindres, de l'ordre de 50 %, a été obtenue. Ce fantôme a également permis de mesurer un changement relatif de fixation qui s'est révélé être indépendant de la méthode de mesure. Malgré un étalonnage des deux systèmes TEP/TDM, des différences de quantification d'environ 20 % ont subsisté. Conclusion. - Les résultats obtenus montrent l'intérêt de ce fantôme dans le cadre du suivi des mesures quantitatives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUME La méthode de la spectroscopie Raman est une technique d'analyse chimique basée sur l'exploitation du phénomène de diffusion de la lumière (light scattering). Ce phénomène fut observé pour la première fois en 1928 par Raman et Krishnan. Ces observations permirent à Raman d'obtenir le Prix Nobel en physique en 1930. L'application de la spectroscopie Raman a été entreprise pour l'analyse du colorant de fibres textiles en acrylique, en coton et en laine de couleurs bleue, rouge et noire. Nous avons ainsi pu confirmer que la technique est adaptée pour l'analyse in situ de traces de taille microscopique. De plus, elle peut être qualifiée de rapide, non destructive et ne nécessite aucune préparation particulière des échantillons. Cependant, le phénomène de la fluorescence s'est révélé être l'inconvénient le plus important. Lors de l'analyse des fibres, différentes conditions analytiques ont été testées et il est apparu qu'elles dépendaient surtout du laser choisi. Son potentiel pour la détection et l'identification des colorants imprégnés dans les fibres a été confirmé dans cette étude. Une banque de données spectrale comprenant soixante colorants de référence a été réalisée dans le but d'identifier le colorant principal imprégné dans les fibres collectées. De plus, l'analyse de différents blocs de couleur, caractérisés par des échantillons d'origine inconnue demandés à diverses personnes, a permis de diviser ces derniers en plusieurs groupes et d'évaluer la rareté des configurations des spectres Raman obtenus. La capacité de la technique Raman à différencier ces échantillons a été évaluée et comparée à celle des méthodes conventionnelles pour l'analyse des fibres textiles, à savoir la micro spectrophotométrie UV-Vis (MSP) et la chromatographie sur couche mince (CCM). La technique Raman s'est révélée être moins discriminatoire que la MSP pour tous les blocs de couleurs considérés. C'est pourquoi dans le cadre d'une séquence analytique nous recommandons l'utilisation du Raman après celle de la méthode d'analyse de la couleur, à partir d'un nombre de sources lasers le plus élevé possible. Finalement, la possibilité de disposer d'instruments équipés avec plusieurs longueurs d'onde d'excitation, outre leur pouvoir de réduire la fluorescence, permet l'exploitation d'un plus grand nombre d'échantillons. ABSTRACT Raman spectroscopy allows for the measurement of the inelastic scattering of light due to the vibrational modes of a molecule when irradiated by an intense monochromatic source such as a laser. Such a phenomenon was observed for the first time by Raman and Krishnan in 1928. For this observation, Raman was awarded with the Nobel Prize in Physics in 1930. The application of Raman spectroscopy has been undertaken for the dye analysis of textile fibers. Blue, black and red acrylics, cottons and wools were examined. The Raman technique presents advantages such as non-destructive nature, fast analysis time, and the possibility of performing microscopic in situ analyses. However, the problem of fluorescence was often encountered. Several aspects were investigated according to the best analytical conditions for every type/color fiber combination. The potential of the technique for the detection and identification of dyes was confirmed. A spectral database of 60 reference dyes was built to detect the main dyes used for the coloration of fiber samples. Particular attention was placed on the discriminating power of the technique. Based on the results from the Raman analysis for the different blocs of color submitted to analyses, it was possible to obtain different classes of fibers according to the general shape of spectra. The ability of Raman spectroscopy to differentiate samples was compared to the one of the conventional techniques used for the analysis of textile fibers, like UV-Vis Microspectrophotometry (UV-Vis MSP) and thin layer chromatography (TLC). The Raman technique resulted to be less discriminative than MSP for every bloc of color considered in this study. Thus, it is recommended to use Raman spectroscopy after MSP and light microscopy to be considered for an analytical sequence. It was shown that using several laser wavelengths allowed for the reduction of fluorescence and for the exploitation of a higher number of samples.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : Bien que rares chez l'adulte, les sarcomes des tissus mous restent une maladie au pronostic très sombre. En effet, leur survie globale à 5 ans est de 50 % chez la femme et de 41 % chez l'homme. De plus, ils sont particulièrement difficiles à traiter, en raison de leur agressivité, de leur résistance face aux chimiothérapies et à la radiothérapie et d'autre part leur localisation conduit souvent à des opérations mutilantes. Pour les sarcomes des membres, il existe une opération appelée perfusion isolée du membre (ILP). Cela consiste à réaliser une chimiothérapie par voie intra-artérielle, en isolant le membre qui est perfusé par une solution Melphalan et de Tumor Necrosis Factor α à l'aide d'une circulation extra-corporelle pour son oxygénation. Ce type de traitement est à visée palliative, évitant une amputation du membre atteint. Pour accéder aux vaisseaux permettant la canulation de la pompe, un curage ganglionnaire est généralement effectué. Patients et méthode : Pour cette étude rétrospective, nous avons analysé la base de données des 278 ILP réalisées au Centre Hospitalier Universitaire Vaudois (CHUV) à Lausanne depuis mai 1988. Nous avons extrait et analysé de cette étude rétrospective 57 ILP réalisées pour des sarcomes. L'étude porte sur 52 patients traités entre le 19 février 1992 et le 14 décembre 2011, après avoir exclu les patients n'ayant pas bénéficié d'un curage ganglionnaire et la seconde ILP pour 4 patients qui en ont eu 2. Pour chacun de ces patients, les protocoles opératoires, les rapports d'examens radiologiques ainsi que les rapports de pathologies ont été revus et analysés. Nous avons également effectué une revue de la littérature sur PubMed. Résultats : Il y avait 28 hommes (53.8%) et 24 femmes (46.2 %). L'âge moyen au moment de l'ILP était de 56,7 ans (écart-type 16,8). Seul 3 patients sur les 52 avaient des métastases à distance au moment du diagnostic. Le curage ganglionnaire radical a montré que 13 patients (25 %) avaient une atteinte des ganglions lymphatiques (N+). Parmi les types histologiques qui ont présenté au moins une métastase ganglionnaire, on retrouve 2 léomyosarcomes, 2 sarcomes indifférenciés (anciennement MFH), 3 sarcomes épithélioïdes, 4 angiosarcomes et 2 synoviosarcomes. Pour les patients N0, la survie globale moyenne estimée par la méthode de Kaplan et Meier a été de 95,98 mois (CI 95% 66,72-125,23 mois). Pour les patients N1 la survie globale moyenne a chuté à 28,72 mois (CI 95% 6,48-50,97). Le test du Log Rank donne un Chi2 de 9,659 (P=0,002). La moyenne de survie sans maladie a été de 38,03 mois pour le groupe (N0) et de 10,87 mois pour le groupe N1, (CI 95 % 25,75-50,3 et 1,87-19,88 respectivement) et une valeur de P= 0.006. Nous n'avons pas mis en évidence de différence de survie statistiquement significative (P=0.946) entre les types ou les grades histologiques, en raison de la taille du collectif. Conclusion : Bien que rares, les métastases ganglionnaires des sarcomes des membres ont un impact négatif sur la survie à long terme du patient. Les résultats obtenus montrent qu'un curage peut participer au traitement régional et confirme la nécessité de pratiquer systématiquement une lymphadénectomie radicale en vue d'offrir les meilleures chances de survie au patient. Il faudrait donc se poser la question si la présence de métastases ganglionnaires ne devrait pas modifier la prise en charge pour tendre vers un traitement plus agressif chez de tels patients. Ce qui n'est pas le cas à l'heure actuelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : L'HSA d'origine anévrismale est une pathologie au pronostic sombre, tout retard diagnostique exposant le patient à un risque élevé de récidives hémorragiques potentiellement fatales. La sensibilité du CT scanner étant jugée insuffisante dans cette indication, la majorité des recommandations actuelles préconisent la réalisation systématique d'une ponction lombaire après toute imagerie cérébrale négative. L'analyse spectrophotométrique du LCR permet en effet de différencier un saignement récent dans l'espace sous-arachnoïdien d'une ponction lombaire traumatique par détection de bilirubine. Or, le caractère invasif de cet examen et son manque de spécificité posent des difficultés en pratique. De plus, l'excellente sensibilité des CT de dernières générations, du moins dans les premières heures suivant la survenue de l'HSA, remet en question le dogme d'une PL systématique dans l'algorithme diagnostique d'une céphalée suspecte. Objectif : Evaluer le rendement diagnostique de la spectrophotométrie du LCR dans le cadre d'une suspicion d'HSA après une imagerie normale, afin d'en préciser les indications. Méthode : Étude monocentrique et rétrospective au Centre Hospitalier Universitaire Vaudois de Lausanne du 1er janvier 2005 au 18 novembre 2010. Extraction de toutes les spectrophotométries positives et analyse approfondie des dossiers concernés. Dans un second temps, et durant la même période, revue de tous les séjours hospitaliers comportant le diagnostic d'HSA , afin d'extraire en particulier les HSA dont le diagnostic a été établi par spectrophotométrie en raison d'une imagerie initiale négative ou non conclusive. Résultats : 869 PL du 1er janvier 2005 au 18 novembre 2010. 36 (4.1%) examens positifs (concentration de bilirubine dans le LCR > 0.3 μmol/l), dont 14 (38.9%) dans un contexte d'HSA (valeur prédictive positive de 38.9%). Sur les 14 cas positifs, 3 ont été diagnostiqués exclusivement par la PL, mais aucune dans un cadre d'HSA anévrismale. Dans la même périodepériode, 235 HSA diagnostiquées, dont 7 (2.9%) avec une imagerie cérébrale initiale négative. Sur ces 7 cas, seuls 2 ont été diagnostiqués comme une HSA d'origine anévrismale. La sensibilité du CT dans notre recherche atteint donc 99.15%. Discussion : Sur les 36 spectrophotométries positives, 22 se sont révélées a posteriori faussement positives, confirmant dès lors la faible spécificité et la faible valeur prédictive positive de l'analyse spectrophotométrique du LCR . Ces faux positifs entraînent la réalisation d'examens invasifs (angiographie cérébrale conventionnelle), dont les complications sont bien décrites. Bien que les résultats ne nous permettent pas de chiffrer le nombre potentiel d'HSA manquées faute d'un examen du LCR, aucun cas d'HSA d'origine anévrismale n'a été diagnostiqué sur la base exclusive de la PL durant la période étudiée. Cette faible spécificité appuie l'idée de développer un score clinique prédictif afin de ne réserver la PL qu'aux patients jugés à haut risque d'HSA. La PL garde néanmoins un rôle dans la détection des HSA d'origine non anévrismales. Conclusions : Lors d'une suspicion clinique d'HSA, le rendement diagnostique de l'analyse du LCR après un angio- CT cérébral normal est faible, tout comme son impact sur la prise en charge, au prix d'un nombre important de faux positifs. La PL reste certainement indiquée face à des céphalées suspectes évoluant depuis plus de 24 heures. Toutefois, au vu de l'excellente valeur prédictive négative d'un CT cérébral réalisé précocement et interprété par un neuroradiologue, cet examen ne devrait être réservé qu'aux situations à haut risque d'HSA. A cet égard, le développement d'un score prédictif validé permettrait de mieux sélectionner les candidats à une PL.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Après une introduction géologique et un bref aperçu sur la méthode audio-magnétotellurique, les résultats de l'étude sont présentés sous forme de cartes de résistivités et de conductances, et de trois profils transversaux. Ceux-ci comprennent chacun 5 à 7 sondages AMT et permettent la comparaison directe ave les profondeurs obtenues par une campagne de sismique-réflexion. Les résultats sont en bon accord et les profondeurs maximums déduites de la géophysique, voisines de 800 m, sont nettement plus importantes que les estimations anciennes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Une des percées les plus importantes dans la recherche sur les nanoparticules (ambiantes et manufacturées) a été la reconnaissance de leur potentiel à générer un stress oxydatif au niveau cellulaire. Dans cette optique, la mesure du potentiel oxydant intrinsèque des particules pourrait présenter une première étape dans l'évaluation des dangers. Ce projet méthodologique avait pour but de caractériser le potentiel oxydant de différentes nanoparticules « modèles » (ambiantes et manufacturées) au moyen de trois tests acellulaires (Test DTT, Test DCFH, Test oxymétrique) et d'utiliser ces résultats pour proposer une méthode de « référence ». D'autre part, nous avons appliqué la méthode sélectionnée à deux cas (exposition d'ouvriers à des particules de combustion et évaluation du danger de différentes nanoparticules manufacturées) afin de déterminer quels sont les paramètres qui influencent la mesure. Les résultats obtenus indiquent que la préparation des suspensions joue un rôle dans la mesure de ce potentiel oxydant. La réactivité dépend de la concentration du surfactant et de la durée de sonication. D'autre part, l'ordre de réactivité est dépendant de la métrique utilisée (masse ou surface) pour exprimer les résultats. Parmi les trois tests considérés, le test DTT pourrait être le plus utile pour effectuer une évaluation initiale du danger potentiel de nanoparticules ambiantes ou manufacturées. Ce test pourrait être intégré dans une stratégie d'évaluation de la toxicité des nanoparticules. Le test DTT correspond bien un test intégratif. Pour des situations de travail dans lesquelles les particules de combustion sont majoritaires, les paramètres physico-chimiques qui corrèlent de manière significative avec la réactivité DTT sont la surface des particules, les concentrations de carbone organique, la somme des concentrations de quatre quinones et les concentrations de fer et cuivre. Un nombre plus faible de corrélations est observé dans des ateliers mécaniques, suggérant que d'autres composés non mesurés interviennent également dans cette réactivité. Concernant les nanoparticules carbonées manufacturées, les fonctions chimiques de surface corrélées avec la réactivité DTT sont des fonctions acides et des fonctions inconnues pouvant dismuter. D'autre part, la solubilité et la possibilité de former des complexes avec le DTT sur la surface des NP manufacturées influencent le résultat de réactivité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce travail s'appuie sur une recherche qualitative s'articulant autour d'études de cas. Il vise à interroger les facteurs de l'engagement, du renforcement et du renoncement aux agirs transgressifs à la période de latence d'une part puis au cours du processus adolescent d'autre part. La proposition du terme agir transgressif permettra d'explorer les contours de la problématique des pathologies de l'agir dans les registres psychodynamique, intrapsychique et intersubjectif. Dans ce cadre, les épreuves de la méthode projective (Hand-Test, Rorschach, TAT) constituent, associés à l'entretien, des analyseurs privilégiés, au regard de leur potentialité à mettre à l'épreuve notamment les processus de symbolisation propres à rendre compte de l'investissement de ce type d'agirs (des prises de position narcissiques-identitaires et objectales-identificatoires). La proposition de trois modes de compréhension des agirs transgressifs de la latence à l'adolescence ouvre des perspectives d'appréhension d'un mode d'accompagnement spécifique pour l'accueil de ces adolescents et de travail à des propositions singulières de prises en charge afin de contribuer à l'amélioration des modalités de prise en charge tant éducatives que psychologiques.