96 resultados para Procédés à lit fluidisé
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.
Resumo:
The present article examines the final part of the regnal formulas in the Book of Kings, i.e. the epilogue formulary. Most reports of the kings of Israel and Judah end with an epilogue containing formulaic statements about the death of the king and his succession. Typically, the epilogue formula is introduced by the phrase (source reference): 'Now the rest of the acts of PN1, are they not written in the Book of the Chronicles of the Kings of Judah (of the Chronicles of the Kings of Israel)?' and consists of three elements: 1. Dynastic notice ('PN1 slept with his fathers'); 2. Statement of burial; 3. Statement of succession. Sometimes one, two or all three of these elements are altered or lacking. The epilogue formulae of the Judean kings are more consistent than those of the Israelite kings; the latter often lacks a burial notice. Interestingly, the accounts of the deported (arrested) kings (Hoshea: 2 Kgs 17:6, Jehoahaz: 23:34, Zedekiah:25:7 and Jehoiachin: 25:27-30) do not contain an epilogue at all, nor the accounts of the reigns of Ahaziah and Athaliah which mark an episode of disruption in the history of the Davidic kingdom. For all these kings even the phrase 'Now the rest of the acts of PN1, are they not written in the Book of the Chronicles of... ?' is lacking. The absence of an epilogue in these cases is probably due to the fact that the king's succession (cf. element 3) is considered a constitutive and indispensable component of the epilogue. In the first instance, the approach of this study is descriptive and philological; it aims to contribute to the understanding of the notices. Secondly, the study addresses the question how the irregularities and variations within the formulae are to be explained. In particular, the study will pay attention to differences between the epilogue formulae concerning the kings of Israel and those concerning the Judean kings. At the end, questions concerning the epilogues formula's provenance and its formation date and concerning further redactional developments will be considered.
Resumo:
« Les yeux sont du visage humain la partie la plus noble et la plus importante, les yeux sont composés de corps, d'âme et d'esprit, ou plutôt les yeux sont la fenêtre où l'âme et l'esprit viennent se montrer » (Alphonse Karr, 1853). L'oeil est le regard, mais pour l'ophtalmologue il est aussi une fenêtre ouverte et un regard possible sur le reste du corps. Prolongement du système nerveux central en contact direct avec le monde extérieur dont il est l'un des « senseurs » le plus subtil et le plus complexe, il est sujet à des réactions inflammatoires, allergiques et toxiques chez l'enfant et chez l'adulte. Alors que notre environnement visuel change (modification des systèmes d'éclairage domestique dans les villes, écrans, mode de vie et habitudes de travail), que les polluants se multiplient et se combinent et que les environnements climatisés deviennent la règle, le nombre de patients souffrant de pathologies de la surface oculaire atteint 30 % des motifs de nos consultations et le nombre des patients myopes est en hausse. L'oeil est l'un des « senseurs » le plus subtil et le plus complexe Si la surface oculaire peut aussi être le témoin des pathologies systémiques, c'est la rétine qui en est plus fréquemment le reflet. Les atteintes du lit vasculaire, du nerf optique ou de la rétine peuvent être des manifestations de pathologies générales ou d'effets secondaires ou toxiques de médicaments. L'examen du fond d'oeil et la rétinophotographie restent les examens de dépistage de référence en particulier pour la rétinopathie diabétique, véritable fléau mondial et première cause de cécité dans les pays industrialisés chez les jeunes adultes. Mais ce n'est que par la collaboration entre ophtalmologues, médecins traitants et autres spécialistes que les pathologies rétiniennes peuvent être prises en charge de façon optimale pour qu'à des traitements oculaires spécifiques soit associée la prise en charge globale des maladies causales ou interférentes. Au-delà du fond d'oeil, les progrès technologiques contribuent au développement de multiples méthodes d'exploration des différentes structures de l'oeil offrant ainsi la possibilité d'utiliser l'oeil comme témoin de manifestations précoces de maladies neurologiques périphériques ou centrales. L'imagerie cornéenne semble aujourd'hui capable de révéler et de suivre de façon longitudinale la neuropathie diabétique périphérique et il n'est pas impossible que la rétine devienne le site de détection précoce de la maladie d'Alzheimer. Sur le plan de la prise en charge, l'ophtalmologue ne peut pas se contenter de traiter l'oeil, il doit aussi assurer une prise en charge pluridisciplinaire et accompagner le patient qui, perdant la vision, est sujet à la dépression et à la majoration de tout autre handicap. La perte visuelle est le handicap le plus redouté des populations et la perte d'autonomie qu'il induit limite l'observance et le suivi thérapeutique (comparable en termes de gravité ressentie à un « alitement brutal dans les suites d'un AVC »). La médecine personnalisée et les interactions multidisciplinaires prennent ici tout leur sens. Les développements thérapeutiques ont été majeurs ces dernières années et la cécité n'est plus une fatalité, au moins dans certains cas. Mais la rétine étant un tissu nerveux post-mitotique, les traitements et donc le dépistage doivent être précoces pour prévenir la perte visuelle irréversible. Spécifiquement, les espoirs lointains comme la thérapie génique entrent dans les essais cliniques laissant entrevoir la lumière au bout du tunnel. A portée de vue, la rétine artificielle constitue une avancée concrète, encore perfectible mais accessible dès aujourd'hui. Si les progrès sont manifestes dans le domaine de l'ophtalmologie, il reste encore beaucoup à apprendre et à comprendre en particulier dans les mécanismes pathogéniques multifactoriels des maladies oculaires plus fréquentes. Seule une exploration approfondie des maladies humaines pourra nous permettre de mieux appréhender de nouvelles stratégies thérapeutiques. Comme le disait André Isaac (1893-1975), pour voir loin, il faut regarder de près.
Resumo:
Dans le contexte des soins intensifs pédiatriques, la douleur est une préoccupation majeure et quotidienne pour l'équipe soignante. Les patients sont vulnérables de par leur condition et les multiples stimulations douloureuses auxquelles ils sont exposés. En dépit des données probantes démontrant l'importance d'une évaluation de la douleur, le traitement de celle-ci reste non optimal dans cette population vulnérable. Une douleur inadéquatement traitée peut causer de nombreuses complications à moyen et à long terme. L'évaluation de la douleur chez le patient ventilé et non communicant représente un défi important, rendu complexe par l'utilisation concomitante de médicaments sédatifs et analgésiques qui peuvent masquer ou altérer les comportements de la douleur. Il existe des outils d'évaluation adaptés à cette population vulnérable, mais l'interprétation des scores reste difficile. L'évaluation de la douleur demande aux infirmières des connaissances et compétences élevées à même d'être mobilisées lors d'un processus complexe lié au raisonnement clinique. Le but de cette étude descriptive et observationnelle est de déterminer les indicateurs utilisés par les infirmières expertes des soins intensifs de pédiatrie lors de l'évaluation de la douleur chez le patient ventilé et non communicant, sous analgésie et sédation. Un échantillon de convenance de dix infirmières expertes travaillant dans une unité de soins intensifs pédiatriques d'un hôpital universitaire de Suisse romande a participé à cette étude. Les données ont été récoltées par l'enregistrement de la verbalisation du raisonnement clinique au lit du patient, complété par une observation non participante et un entretien semi-structuré. Le développement d'un cadre théorique constitué d'un modèle de raisonnement clinique expert et d'une modélisation du décodage de la douleur a permis de réaliser une analyse de contenu des enregistrements. Les résultats montrent une utilisation importante des indicateurs physiologiques, en lien avec la stabilité clinique du patient qui est un critère essentiel pour la prise de décision lors de la gestion de la douleur. La difficulté à discriminer l'agitation résultant de la douleur ou d'autres causes est également omniprésente. Les expertes anticipent et préviennent la survenue de la douleur en s'appuyant sur leurs connaissances et les situations de patient déjà rencontrées. Le contexte clinique influence de manière prépondérante le raisonnement clinique et les indicateurs utilisés lors de l'évaluation et la gestion de la douleur. Celle-ci doit être évaluée de manière combinée avec la stabilité clinique du patient et son niveau de sédation. De futures recherches sont nécessaires pour confirmer ces résultats réalisés avec un échantillon de petite taille et un devis observationnel.
Resumo:
La cardiomyopathie hypertrophique (CMH) est la maladie cardiaque monogénique la plus fréquente, touchant environ 1 individu sur 500 dans la population (1,2). L'étiologie est familiale dans la majorité des cas avec une transmission de type autosomal dominant à pénétrance variable. Deux gènes principaux sont à l'origine de la maladie chez 70% des patients avec un test génétique positif. Il s'agit des gènes qui codent pour la chaine lourde β de la myosine (MYH7) et la protéine C liant la myosine (MYBPC3) (1-3). La CMH est définie par la présence d'une hypertrophie myocardique « inadéquate » car se développant en l'absence d'une cause d'augmentation de la post-charge (HTA, sténose aortique, membrane sous-aortique), d'une pathologie infiltrative ou d'un entrainement physique (4,5). Le plus souvent asymétrique et affectant préférentiellement le septum, cette hypertrophie s'accompagne dans près de deux tiers des cas d'une obstruction dynamique sous-aortique de la chambre de chasse du ventricule gauche par la valve mitrale (systolic anterior motion ou SAM). Cette obstruction est à la fois la conséquence du rétrécissement de la chambre de chasse par l'hypertrophie septale mais également d'un malpositionnement de la valve mitrale (6-8). On parle alors de Cardiomyopathie Hypertrophique et Obstructive (CMHO). L'obstruction - présente au repos dans 50% des cas et uniquement après manoeuvres de provocation dans l'autre moitié des cas (manoeuvre de Valsalva, test de vasodilatation par nitrite d'amyle) est à l'origine d'un gradient de pression entre le ventricule gauche et l'aorte, et donc d'une surcharge de pression pour le ventricule gauche. Cette surcharge de pression est à l'origine des symptômes classiquement rencontrés soit dyspnée et angor d'effort, présyncope voire syncopes à l'effort. Un gradient sous-aortique de plus de 50 mmHg (mesuré au repos ou après provocation) est considéré comme un gradient à valeur pronostique (6-8) et justifiant un traitement si associé à des symptômes. Le traitement médical des formes obstructives repose sur l'administration de substances inotropes négatives et/ou susceptibles de favoriser la relaxation myocardique tels que les béta-bloqueurs, les antagonistes du calcium et le disopyramide - pris isolément ou en association. Pour les nombreux patients qui deviennent réfractaires ou intolérants à ces traitements, deux interventions peuvent leur être proposées pour lever l'obstruction : une myotomie-myectomie chirurgicale du septum (9,10) ou une alcoolisation du septum par voie percutanée (7,8). Les indications à ces interventions sont les suivantes (7,8,11) : 1. Symptômes (dyspnée de classe fonctionnelle NYHA III ou IV, angor de classe fonctionnelle CCS III ou IV, syncope, ou présyncope) réfractaires au traitement médical ou intolérance du patient au traitement. Une dyspnée de classe II est considérée suffisante dans le cas de jeunes patients. 2. Obstruction sous-aortique avec gradient supérieur ou égal à 50 mmHg, au repos ou après manoeuvre de provocation, associée à une hypertrophie septale et à un mouvement systolique antérieur de la valve mitrale (effet SAM) 3. Anatomiecardiaquefavorableàuntraitementinvasif(épaisseurduseptumde plus de 16 mm) Si la myectomie chirurgicale reste la méthode de référence (12-18), l'alcoolisation septale du myocarde par voie percutanée est devenue un des traitements de choix dans la thérapie de la Cardiomyopathie Hypertrophique Obstructive réfractaire. Elle consiste à repérer par coronarographie l'artère septale nourrissant le septum basal hypertrophié, puis à y introduire un petit ballon pour isoler ce territoire du reste du lit coronaire avant d'y injecter une dose d'alcool à 95% comprise entre 1 et 5 cc. On crée ainsi un infarctus chimique, technique qui fut dans le passé utilisée pour le traitement de certaines tumeurs. Les effets ne sont pas immédiats et nécessitent généralement 2-3 semaines avant de se manifester. On assiste alors à une diminution progressive de l'épaisseur du myocarde nécrosé (7), à la disparition progressive de l'obstruction et à l'amélioration / disparition des symptômes. La question de savoir qui de la chirurgie ou de l'alcoolisation est le plus efficace a été source de nombreux débats (7,11-13,18). Par rapport à la chirurgie, les avantages de la méthode percutanée sont les suivants (11,14,15,18,19) : - Efficacités hémodynamique et fonctionnelle jugées comparable à la chirurgie selon les études - Taux de morbidité et de mortalité très faible et non supérieure à la chirurgie - Absence de sternotomie - Diminution de la durée de l'hospitalisation et surtout de la période de convalescence, le patient pouvant reprendre une activité dès son retour à domicile Certains experts émettent néanmoins des doutes quant à l'innocuité à long terme de la méthode, les zones nécrotiques pouvant servir de terrain arythmogène. Pour ces raisons, la méthode n'est pas recommandée chez les patients de moins de 40 ans (6,8). Le risque majeur de l'alcoolisation du septum proximal réside dans l'induction d'un bloc atrio-ventriculaire complet chimique, le noeud atrio-ventriculaire étant justement situé dans cette région. Ce risque augmente avec la quantité d'alcool administrée et nécessite, si persistance après trois jours, l'implantation d'un pacemaker à demeure. Selon les centres, le taux d'implantation d'un stimulateur varie ainsi entre 7% et 20% (7,14,20). L'efficacité clinique et l'incidence des complications est donc en partie liée à la compétence technique et à l'expérience de l'opérateur (7,14), mais aussi aux choix des patients. Il peut donc varier grandement selon les centres médicaux. L'étude proposée vise à analyser les résultats de l'alcoolisation obtenus à Lausanne, jusqu'à présent pas encore été étudiés, et à les comparer à ceux de la littérature.