352 resultados para Stratégies de gestion du risque


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans les pays en développement, où les territoires présentent de multiples facteurs de vulnérabilité et où l'exposition à des dangers divers et nombreux sont des phénomènes quotidiens, la mise en place de mesures visant à contrebalancer ces phénomènes devient un enjeu difficile à réaliser. Dans cette perspective, il s'agit d'étudier, à travers les pratiques des acteurs, quels sont les éléments qui permettent de définir les risques et les actions à entreprendre. Les acteurs doivent négocier ou même imposer la légitimité de leurs vulnérabilités dans un jeu de négociations, d'arbitrages et de conflits. Le cas d'étude à San Cristóbal, Guatemala, permet d'analyser les différentes solutions proposées sous l'angle des vulnérabilités en jeu. Nous montrons que la prise en compte des vulnérabilités influence la lecture de l'équation du risque des acteurs concernés et conditionne le champ des solutions possibles. Les résultats de cette recherche indiquent que le risque n'est pas univoque mais qu'il est le résultat d'un choix et des calculs faits par les acteurs. Pour cette raison, les mesures à entreprendre dépendent des compromis élaborés entre les acteurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ségrégation professionnelle horizontale et verticale selon le sexe est l'un des traits dominants du marché du travail: les femmes et les hommes exercent rarement le même type d'activité ou la même fonction. L'objectif de la recherche réalisée dans le cadre de mon mémoire de licence est de cerner les mécanismes sociaux qui contribuent au maintien de la division hiérarchique du travail entre les sexes. L'enquête a été menée au sein d'une administration cantonale et combine une étude de la politique de gestion du personnel et de trajectoires d'activité professionnelle d'employé·e·s et de cadres des deux sexes (« employé d'administration » est une fonction féminisée, celle d'« adjoint » est majoritairement occupée par des hommes). Elle met en évidence l'influence des rapports sociaux de sexe dans la production des différences de sexe. L'étude du système de classification des fonctions, de promotion et de formation continue met au jour la manière dont les stéréotypes de sexe et les représentations de rôles de sexe structurent la politique de gestion du personnel. Il ressort que les « employées » interviewées ont un niveau de formation supérieur à celui de leurs homologues masculins. Par ailleurs, la mobilité professionnelle est régie par des logiques différentes : les femmes rapportent avoir demandé une promotion alors que les hommes disent avoir été promus par les supérieurs. L'analyse des trajectoires d'activité montre que les « employé·e·s » n'accomplissent pas le même type de tâches, les femmes sont cantonnées à un travail de secrétariat alors que les hommes assument des tâches diversifiées, ce qui se répercute ensuite sur le type de cours de formation continue suivis. Mais surtout la mobilité spatiale et l'autonomie féminines sont moindres. « Employée» n'est donc pas le féminin d'«employé». La fonction d'« adjoint » comprend l'exercice de responsabilités diverses, notamment la direction et l'encadrement de personnel administratif. Pourtant, les « adjointes » sont exclues des fonctions de direction - où se prennent les décisions - et quasi exclues des fonctions d'encadrement hiérarchique importantes. Par ailleurs, les dossiers en mains masculines concernent davantage des questions économiques, financières ou techniques, ceux des femmes des dimensions juridique et sociale. Enfin, les « adjointes » connaissent un avancement de carrière plus lent que leurs collègues de sexe masculin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le management stratégique est devenu un outil de gestion presque incontournable dans les organisations publiques, notamment du fait de la généralisation de la contractualisation et de gouvernance à distance. Bien sûr, gérer sur la base d'une stratégie afin d'atteindre des objectifs précis paraît fort raisonnable. Cependant, l'étude du fonctionnement contemporain des organisations publiques démontre que le management stratégique se limite bien souvent à des stratégies de contrôle, conduisant à une bureaucratisation accrue des organisations publiques en lieu et place d'une plus grande liberté managériale. Nous expliquons ce mécanisme en prenant pour exemple le secteur hospitalier suisse en pleine restructuration.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'exposition aux poussières de bois est associé à un risque accru d'adénocarcinomes des fosses nasales et des sinus paranasaux (SNC, 'Sinonasal cancer') chez les travailleurs du bois. Les poussières de bois sont ainsi reconnues comme cancérogènes avérés pour l'homme par le Centre international de Recherche sur le Cancer (CIRC). Toutefois, l'agent causal spécifique et le mécanisme sous-jacent relatifs au cancer lié aux poussières de bois demeurent inconnus. Une possible explication est une co-exposition aux poussières de bois et aux Hydrocarbures Aromatiques Polycycliques (HAP), ces derniers étant potentiellement cancérogènes. Dans les faits, les travailleurs du bois sont non seulement exposés aux poussières de bois naturel, mais également à celles générées lors d'opérations effectuées à l'aide de machines (ponceuses, scies électriques, etc.) sur des finitions de bois (bois traités) ou sur des bois composites, tels que le mélaminé et les panneaux de fibres à densité moyenne (MDF, 'Medium Density Fiberboard'). Des HAP peuvent en effet être générés par la chaleur produite par l'utilisation de ces machines sur la surface du bois. Les principaux objectifs de cette thèse sont les suivants: (1) quantifier HAP qui sont présents dans les poussières générées lors de diverses opérations courantes effectuées sur différents bois (2) quantifier l'exposition individuelle aux poussières de bois et aux HAP chez les travailleurs, et (3) évaluer les effets génotoxiques (dommages au niveau de l'ADN et des chromosomes) due à l'exposition aux poussières de bois et aux HAP. Cette thèse est composée par une étude en laboratoire (objectif 1) et par une étude de terrain (objectifs 2 et 3). Pour l'étude en laboratoire, nous avons collecté des poussières de différents type de bois (sapin, MDF, hêtre, sipo, chêne, bois mélaminé) générées au cours de différentes opérations (comme le ponçage et le sciage), et ceci dans une chambre expérimentale et dans des conditions contrôlées. Ensuite, pour l'étude de terrain, nous avons suivi, dans le cadre de leur activité professionnelle, 31 travailleurs de sexe masculin (travailleurs du bois et ébenistes) exposés aux poussières de bois pendant deux jours de travail consécutifs. Nous avons également recruté, comme groupe de contrôle, 19 travailleurs non exposés. Pour effectuer une biosurveillance, nous avons collecté des échantillons de sang et des échantillons de cellules nasales et buccales pour chacun des participants. Ces derniers ont également rempli un questionnaire comprenant des données démographiques, ainsi que sur leur style de vie et sur leur exposition professionnelle. Pour les travailleurs du bois, un échantillonnage individuel de poussière a été effectué sur chaque sujet à l'aide d'une cassette fermée, puis nous avons évalué leur exposition à la poussière de bois et aux HAP, respectivement par mesure gravimétrique et par Chromatographie en phase gazeuse combinée à la spectrométrie de masse. L'évaluation des dommages induits à l'ADN et aux chromosomes (génotoxicité) a été, elle, effectuée à l'aide du test des micronoyaux (MN) sur les cellules nasales et buccales et à l'aide du test des comètes sur les échantillons de sang. Nos résultats montrent dans la poussière de la totalité des 6 types de bois étudiés la présence de HAP (dont certains sont cancérogènes). Des différences notoires dans les concentrations ont été néanmoins constatées en fonction du matériau étudié : les concentrations allant de 0,24 ppm pour la poussière de MDF à 7.95 ppm pour le mélaminé. Nos résultats montrent également que les travailleurs ont été exposés individuellement à de faibles concentrations de HAP (de 37,5 à 119,8 ng m-3) durant les opérations de travail du bois, alors que les concentrations de poussières inhalables étaient relativement élevés (moyenne géométrique de 2,8 mg m-3). En ce qui concerne la génotoxicité, les travailleurs exposés à la poussière de bois présentent une fréquence significativement plus élevée en MN dans les cellules nasales et buccales que les travailleurs du groupe témoin : un odds ratio de 3.1 a été obtenu pour les cellules nasales (IC 95% : de 1.8 à 5.1) et un odds ratio de 1,8 pour les cellules buccales (IC 95% : de 1.3 à 2.4). En outre, le test des comètes a montré que les travailleurs qui ont déclaré être exposés aux poussières de MDF et/ou de mélaminé avaient des dommages à l'ADN significativement plus élevés que les deux travailleurs exposés à la poussière de bois naturel (sapin, épicéa, hêtre, chêne) et que les travailleurs du groupe témoin (p <.01). Enfin, la fréquence des MN dans les cellules nasales et buccales augmentent avec les années d'exposition aux poussières de bois. Par contre, il n'y a pas de relation dose-réponse concernant la génotoxicité due à l'exposition journalière à la poussière et aux HAP. Cette étude montre qu'une exposition aux HAP eu bien lieu lors des opérations de travail du bois. Les travailleurs exposés aux poussières de bois, et donc aux HAP, courent un risque plus élevé (génotoxicité) par rapport au groupe témoin. Étant donné que certains des HAP détectés sont reconnus potentiellement cancérogènes, il est envisageable que les HAP générés au cours du travail sur les matériaux de bois sont un des agents responsables de la génotoxicité de la poussière de bois et du risque élevé de SNC observé chez les travailleurs du secteur. Etant donné la corrélation entre augmentation de la fréquence des MN, le test des micronoyaux dans les cellules nasales et buccales constitue sans conteste un futur outil pour la biosurveillance et pour la détection précoce du risque de SNC chez les travailleurs. - Exposures to wood dust have been associated with an elevated risk of adenocarcinomas of the Dasal cavity and the paranasal sinuses (sinonasal cancer or SNC) among wood workers. Wood dust is recognized as a human carcinogen by the International Agency for Research on Cancer. However, the specific cancer causative agent(s) and the mechanism(s) behind wood dust related carcinogenesis remains unknown. One possible explanation is a co-exposure to wood dust and polycyclic aromatic hydrocarbons (PAH), the latter being carcinogenic. In addition, wood workers are not only exposed to natural wood but also to wood finishes and composite woods such as wood melamine and medium density fiber (MDF) boards during the manipulation with power tools. The heat produced by the use of power tools can cause the generation of PAH from wood materials. The main objectives of the present thesis are to: (1) quantify possible PAH concentrations in wood dust generated during various common woodworking operations using different wood materials; (2) quantify personal wood dust concentrations and PAH exposures among wood workers; and (3) assess genotoxic effects (i.e., DNA and chromosomal damage) of wood dust and PAH exposure in wood workers. This thesis is composed by a laboratory study (objective 1) and a field study (objectives 2 and 3). In the laboratory study we collected wood dust from different wood materials (fir, MDF, beech, mahagany, oak, and wood melamine) generated during different wood operations (e.g., sanding and sawing) in an experimental chamber under controlled conditions. In the following field study, we monitored 31 male wood workers (furniture and construction workers) exposed to wood dust during their professional activity for two consecutive work shifts. Additionally, we recruited 19 non exposed workers as a control group. We collected from each participant blood samples, and nasal and buccal cell samples. They answered a questionnaire including demographic and life-style data and occupational exposure (current and past). Personal wood dust samples were collected using a closed-face cassette. We used gravimetrie analysis to determine the personal wood dust concentrations and capillary gas chromatography - mass spectrometry analysis to determine PAH concentrations. Genotoxicity was assessed with the micronucleus (MN) assay for nasal and buccal cells and with the comet assay for blood samples. Our results show that PAH (some of them carcinogenic) were present in dust from all six wood materials tested, yet at different concentrations depending on the material. The highest concentration was found in dust from wood melamine (7.95 ppm) and the lowest in MDF (0.24 ppm). Our results also show that workers were individually exposed to low concentrations of PAHs (37.5-119.8 ng m"3) during wood working operations, whereas the concentrations of inhalable dust were relatively high (geometric mean 2.8 mg m"3). Concerning the genotoxicity, wood workers had a significantly higher MN frequency in nasal and buccal cells than the workers in the control group (odds ratio for nasal cells 3.1 (95%CI 1.8-5.1) and buccal cells 1.8 (95%CI 1.3-2.4)). Furthermore, the comet assay showed that workers who reported to be exposed to dust from wooden boards (MDF and wood melamine) had significantly higher DNA damage than both the workers exposed to natural woods (fir, spruce, beech, oak) and the workers in the control group (p < 0.01). Finally, MN frequency in nasal and buccal cells increased with increasing years of exposure to wood dust. However, there was no genotoxic dose-response relationship with the per present day wood dust and PAH exposure. This study shows that PAH exposure occurred during wood working operations. Workers exposed to wood dust, and thus to PAH, had a higher risk for genotoxicity compared to the control group. Since some of the detected PAH are potentially carcinogenic, PAH generated from operations on wood materials may be one of the causative agents for the observed increased genotoxicity in wood workers. Since increased genotoxicity is manifested in an increased MN frequency, the MN assay in nasal and buccal cells may become a relevant biomonitoring tool in the future for early detection of SNC risk.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alors que la consommation modérée d'alcool est liée à un risque plus faible de développer une maladie coronarienne, l'impact d'une consommation plus importante d'alcool sur les facteurs de risque cardiovasculaire (FRCV) et la maladie coronarienne est moins clair. Nous avons étudié l'association entre la consommation d'alcool, les FRCV et l'estimation du risque à dix ans de faire un événement cardiovasculaire dans l'étude populationnelle lausannoise CoLaus. Dans cette étude, 73% des participants consomment de l'alcool, 16% consomment de 14 à 34 unités d'alcool par semaine et 2% consomment 35 unités ou plus par semaine. Cet article montre notamment l'impact d'une consommation importante d'alcool sur les FRCVet passe en revue les liens entre la consommation d'alcool, le type de boissons et les FRCV. [Abstract] Moderate alcohol consumption has been associated with lower coronary heart disease (CHD) risk. However, the impact of higher alcohol consumption on cardiovascular risk factors (CVRFs) is conflicting. We examined the association between alcohol consumption, CVRFs and the estimated 10-year CHD risk in the population-based CoLaus study in Lausanne, Switzerland. Among 5'769 participants without cardiovascular disease, 73% of the participants were alcohol drinkers; 16% consumed 14-34 drinks/week and 2% consumed >= 35 drinks/week. This article shows the impact of high alcohol consumption on CVRFs and reviews the literature on the associations between alcohol consumption and CVRFs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : Plusieurs études épidémiologiques et de laboratoire basées sur des estimations subjectives de la durée et de la qualité du sommeil suggèrent que celles-ci pourraient être associées à une augmentation du risque de troubles métaboliques ou cardiovasculaires. Objectif : Dans cette étude nous avons examiné les associations entre les caractéristiques du sommeil évaluées objectivement par Polysomnographie (PSG) et le syndrome métabolique ainsi que ses composants (hypertension, diabète, obésité). Matériel et méthodes : Nous avons analysé les données de 2162 sujets de la population générale (dont le 51.2% étaient des femmes, âge moyen : 58.4±11.1 ans, fourchette d'âge: 40.5-84.4) qui ont participé à l'étude Hypnolaus. Tous les sujets ont eu une évaluation clinique et biologique et ils ont bénéficié d'une PSG complète à domicile. Résultats : Les analyses univariées ont montré que les sujets présentant un syndrome métabolique avaient une diminution du temps total de sommeil, du sommeil lent profond, du sommeil paradoxal et de l'efficacité du sommeil, ainsi qu'une augmentation de l'index de microéveils par rapport aux sujets qui n'avaient pas un syndrome métabolique. Nous avons aussi trouvé des différences significatives de la structure du sommeil en fonction de la présence ou de l'absence d'hypertension, de diabètes et de surpoids/obésité. Cependant, ces différences s'atténuent après ajustement pour des facteurs confondants (âge, genre, tabagisme, prise d'alcool, activité physique, médicaments qui affectent le sommeil, dépression, santé globale et indice de masse corporelle). Seules des différences marginales, non statistiquement significatives, persistaient dans le modèle multiajusté et après stratification en fonction de la présence de troubles respiratoires au cours du sommeil. Conclusions: Dans cet échantillon de la population générale nous avons mis en évidence des associations significatives entre la structure du sommeil et le syndrome métabolique ainsi que ses composants. Cependant, ces associations ne sont pas indépendantes des autres facteurs de risque cardiométabolique connus. Nous en concluons que les variations normales de la durée et de la structure du sommeil contribuent peu ou pas au syndrome métabolique et ses troubles associés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article est consacré au travail de production du discours public policier à propos de la délinquance et à son contenu. Rendant compte de changements ayant affecté le contenu et les modalités d'énonciation de ce discours, nous montrons que ceux-ci relèvent non seulement de stratégies de gestion de son image publique par la police, mais également d'autres enjeux professionnels et corporatistes. En s'appuyant sur la mise en oeuvre de nouveaux savoir-faire communicationnels, l'institution policière produit en effet un discours sur le monde mieux adapté aux contraintes journalistiques, lui permettant également de revendiquer des moyens supplémentaires et de légitimer les outils professionnels controversés que sont le « profilage racial » et la préférence pour des solutions coercitives. Nous visons ainsi à contribuer à une meilleure compréhension des enjeux entourant la production d'un discours sur le monde par un groupe professionnel qui est également une « source » incontournable pour les journalistes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectifs La chirurgie pancréatique reste associée à une morbidité postopératoire importante. Les efforts sont concentrés la plupart du temps sur la diminution de cette morbidité, mais la détection précoce de patients à risque de complications pourrait être une autre stratégie valable. Un score simple de prédiction des complications après duodénopancréatectomie céphalique a récemment été publié par Braga et al. La présente étude a pour but de valider ce score et de discuter de ses possibles implications cliniques. Méthodes De 2000 à 2015, 245 patients ont bénéficié d'une duodénopancréatectomie céphalique dans notre service. Les complications postopératoires ont été recensées selon la classification de Dindo et Clavien. Le score de Braga se base sur quatre paramètres : le score ASA (American Society of Anesthesiologists), la texture du pancréas, le diamètre du canal de Wirsung (canal pancréatique principal) et les pertes sanguines intra-opératoires. Un score de risque global de 0 à 15 peut être calculé pour chaque patient. La puissance de discrimination du score a été calculée en utilisant une courbe ROC (receiver operating characteristic). Résultats Des complications majeures sont apparues chez 31% des patients, alors que 17% des patients ont eu des complications majeures dans l'article de Braga. La texture du pancréas et les pertes sanguines étaient statistiquement significativement corrélées à une morbidité accrue. Les aires sous la courbe étaient respectivement de 0.95 et 0.99 pour les scores classés en quatre catégories de risques (de 0 à 3, 4 à 7, 8 à 11 et 12 à 15) et pour les scores individuels (de 0 à 15). Conclusions Le score de Braga permet donc une bonne discrimination entre les complications mineures et majeures. Notre étude de validation suggère que ce score peut être utilisé comme un outil pronostique de complications majeures après duodénopancréatectomie céphalique. Les implications cliniques, c'est-à-dire si les stratégies de prise en charge postopératoire doivent être adaptées en fonction du risque individuel du patient, restent cependant à élucider. -- Objectives Pancreatic surgery remains associated with important morbidity. Efforts are most commonly concentrated on decreasing postoperative morbidity, but early detection of patients at risk could be another valuable strategy. A simple prognostic score has recently been published. This study aimed to validate this score and discuss possible clinical implications. Methods From 2000 to 2012, 245 patients underwent pancreaticoduodenectomy. Complications were graded according to the Dindo-Clavien classification. The Braga score is based on American Society of Anesthesiologists score, pancreatic texture, Wirsung duct diameter, and blood loss. An overall risk score (from 0 to 15) can be calculated for each patient. Score discriminant power was calculated using a receiver operating characteristic curve. Results Major complications occurred in 31% of patients compared to 17% in Braga's data. Pancreatic texture and blood loss were independently statistically significant for increased morbidity. The areas under curve were 0.95 and 0.99 for 4-risk categories and for individual scores, respectively. Conclusions The Braga score discriminates well between minor and major complications. Our validation suggests that it can be used as prognostic tool for major complications after pancreaticoduodenectomy. The clinical implications, i.e., whether postoperative treatment strategies should be adapted according to the patient's individual risk, remain to be elucidated.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif de la thèse est de rendre compte d'une pratique langagière particulière, le débat, et d'opérer ce travail à la fois à un niveau théorique - en tant qu'analyser la pratique du débat pose certaines questions aux sciences du langage - et à un niveau pratique - dans la mesure où la spécificité du débat repose sur certains observables qu'il s'agit d'identifier et de décrire et qui permettent à chacun de distinguer le débat d'autres formes de comportement, telles que l'anecdote, la dispute ou encore la réunion de travail.¦La thèse part du constat que la pratique du débat constitue un fait social attesté et reconnaissable comme tel, et ce aussi bien par les agents qui s'engagent dans son accomplissement que par un observateur externe. Le fait qu'aucune règle ne vienne pour autant décrire «ce qui fait débat» plaide pour l'adoption d'une perspective ethnométhodologique, sensible à la manière dont les agents pourvoient eux-mêmes, en agissant de façon méthodique et routinière, à la reconnaissabilité (accountability) des pratiques dans lesquelles ils s'engagent.¦La thèse questionne le caractère reconnaissable de la pratique du débat à partir de données originales. Le corpus est constitué de huit événements publics s'étant déroulés à l'Université de Lausanne et ayant été vidéo-enregistrés pour l'occasion. Ces rencontres ne relèvent donc pas d'événements télédiffusés, par exemple des débats de sociétés organisés par des chaînes de télévision. Il s'agit de confrontations verbales (de types « débats publics » ou « conférence-discussion ») où tous les participants, public compris, sont réunis en un même lieu et dans une même tranche temporelle.¦La thèse organise la réflexion en trois parties. Intitulée la parole en interaction médiatisée, la première partie est consacrée à la présentation et à la problématisation, grâce à divers extraits du corpus, des différentes dimensions analytiques mobilisées. Par l'articulation d'acquis en linguistique textuelle et énonciative et en analyse conversationnelle, il s'agit d'étudier la matérialité signifiante des actions verbales en lien avec les dynamiques discursives et interactionnelles dans lesquelles cette matérialité s'inscrit et prend sens. En d'autres termes, on considère la manière dont les unités linguistiques participent à l'accomplissement d'activités pratiques et les pressions que ces activités pratiques sont susceptibles d'exercer sur l'usage de ces unités. L'analyse du débat est en outre inscrite dans une approche multimodale des pratiques, qui entend dépasser l'analyse de la seule verbalité pour donner une place aux ressources corporelles, qu'il s'agisse de gestes, de mimiques ou de la répartition des participants dans l'espace.¦Une fois les différentes dimensions analytiques posées, les deux autres parties examinent chacune une composante - autrement dit un observable - qui spécifie le débat en tant que pratique langagière particulière. Mobilisant une approche dialogale de la pratique de l 'argumentation, la deuxième partie entend montrer que le débat gagne à être abordé comme un mode particulier de gestion du désaccord, fondé sur l'usage de ressources argumentatives. La troisième partie s'intéresse finalement à la problématique de l'inscription de l'identité dans le langage et dans l'interaction et considère la manière dont les traits identitaires que les agents s'attribuent, respectivement ou réciproquement, lorsqu'ils s'engagent dans un débat, participent à assurer le caractère reconnaissable de cette pratique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectifs: Connaître les derniers développements techniques dans l'exploration de l'embolie pulmonaire aigue en imagerie (scanner et IRM). Connaître l'intérêt de la probabilité clinique pré-test dans l'indication de l'imagerie. Savoir faire une interprétation intégrée du scanner dans de l'embolie pulmonaire aiguë. Connaître chez les particularités de réalisation d'un examen chez la femme enceinte. Messages à retenir: Le scanner reste indiqué si les D-dimers sont négatifs et la probabilité clinique pré-test d'une embolie pulmonaire aiguë est élevée. Le scanner a une valeur diagnostique mais aussi une valeur pronostique dans la stratification du risque d'événement fatal chez les patients porteurs d'une embolie pulmonaire aiguë. Résumé: Durant la dernière décennie, l'imagerie en coupe s'est imposée comme moyen diagnostique incontournable dans l'embolie pulmonaire aiguë (EPA). Les nouveaux développements techniques ainsi que les récentes études ont contribué à mieux définir la valeur diagnostique du scanner et de l'IRM. En particulier, trois questions méritent d'être discutées : La probabilité clinique pré-test a-t-elle une importance dans l'indication de l'imagerie? ; (2) Faut-il synchroniser le scanner au rythme cardiaque devant une suspicion d'EPA ? ; (3) Quelles précautions faut-il prendre chez la femme enceinte ? Par ailleurs, La valeur pronostique du scanner mérite d'être connue et utilisée à bon escient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract: The increasingly high hygienic standards characterizing westernized societies correlate with an increasingly high prevalence of allergic disease. Initially based on these observations, the hygiene hypothesis postulates that reduced microbial stimulation during infancy impairs the immune system development and increases the risk of allergy. Moreover, there is increasing evidence that the crosstalk existing between the intestine and the resident microbiota is crucial for gut homeostasis. In particular, bacterial colonization of the gut affects the integrity of the gut barrier and stimulates the development of the gut associated immune tissue, both phenomena being essential for the immune system to mount a controlled response to food antigens. Therefore, alterations in the microbial colonization process, by compromising the barrier homeostasis, may increase the risk of food allergy. In this context, antibiotic treatment, frequently prescribed during infancy, affects gut colonization by bacteria. However, little is known about the impact of alterations in the colonization process on the maturation of the gut barrier and on the immunological response to oral antigens. The objective of this work was to determine the impact of a commercial antibiotic preparation employed in pediatric settings on the gut barrier status at the critical period of the suckling/weaning transition and to evaluate the physiological consequences of this treatment in terms of immune response to food antigens. We established an antibiotic-treated suckling rat model relevant to the pediatric population in terms of type, dose and route of administration of the antibiotic and of changes in the patterns of microbial colonization. Oral tolerance to a novel luminal antigen (ovalbumin) was impaired when the antigen was introduced during antibiotic treatment. These results paralleled to alterations in the intestinal permeability to macromolecules and reduced intestinal expression of genes coding for the major histocomptatibility complex II molecules, which suggest a reduced capacity of antigen handling and presentation in the intestine of the antibiotic-treated animals. In addition, low luminal IgA levels and reduced intestinal expression of genes coding for antimicrobial proteins suggest that protection against pathogens was reduced under antibiotic treatment. In conclusion, we observed in suckling rats that treatment with abroad-spectrum antibiotic commonly used in pediatric practices reduced the capacity of the immune system to develop tolerance. The impact of the antibiotic treatment on the immune response to the antigen-was likely mediated by the alterations of the gut microbiota, through impairment in the mechanisms of antigen handling and presentation. This work reinforces the body of data supporting a key role of the intestinal microbiota modulating the risk of allergy development and leads us to propose that the introduction of new food antigens should be avoided during antibiotic treatment in infants. Résumé: L'augmentation du niveau d'hygiène caractérisant les sociétés occidentales semble être fortement corrélée avec l'augmentation des cas d'allergie dans ces pays. De cette observation est née l'hypothèse qu'une diminution des stimuli microbiens pendant l'enfance modifie le développement du système immunitaire augmentant ainsi le risque d'allergie. En ce sens, un nombre croissant de données indiquent que les interactions existant entre l'intestin et les bactéries résidantes sont cruciales pour l'équilibre du système. En effet, la présence de bactéries dans l'intestin affecte l'intégrité de sa fonction de barrière et stimule le développement du système immunitaire intestinal. Ces deux paramètres étant essentiels à la mise en place d'une réponse contrôlée vis à vis d'un antigène reçu oralement, toute modification du processus naturel de colonisation compromettant l'équilibre intestinal pourrait augmenter le risque d'allergie. Les traitements aux antibiotiques, fréquemment prescrits en pédiatrie, modifient de façon conséquente le processus de colonisation bactérienne. Cependant peu de données existent concernant l'impact d'une altération du processus de colonisation sur la maturation de la barrière intestinale et de la réponse immunitaire dirigée contre un antigène. L'objectif de ce travail était de déterminer l'impact d'un antibiotique commercial et employé en pédiatrie sur l'état de la barrière intestinale au moment critique du sevrage et d'évaluer les conséquences physiologiques d'un tel traitement sur la réponse immune à un antigène alimentaire. Nous avons mis en place un modèle de rats allaités, traités à l'antibiotique, le plus proche possible des pratiques pédiatriques, en terme de nature, dose et voie d'administration de l'antibiotique. Nous avons constaté que l'établissement de la tolérance orale à un nouvel antigène (l'ovalbumine) est altéré quand celui-ci est donné pour la première fois au cours du traitement antibiotique. Ces résultats coïncident avec une diminution de la perméabilité intestinale aux macromolécules, ainsi qu'avec une diminution de l'expression des gènes codant pour les molécules du complexe majeur d'histocomptatibilité de classe II, suggérant une modification de l'apprêtement et de la présentation de l'antigène au niveau intestinal chez les rats traités à l'antibiotique. De plus, un faible taux d'IgA et une diminution de l'expression des gènes codant pour des protéines antimicrobiennes, observés après l'administration d'antibiotique, laissent à penser que la protection contre un pathogène est diminuée lors d'un traitement antibiotique. En conclusion, nous avons observé qu'un traitement antibiotique à large spectre d'activité, couramment utilisé en pédiatrie, réduit la capacité d'induction de la tolérance orale chez le rat allaité. L'impact du traitement antibiotique sur la réponse immune semble induite par l'altération de la flore intestinale via son effet sur les mécanismes d'apprêtement et de présentation de l'antigène. Ce travail renforce l'ensemble des données existantes qui accorde à la flore intestinale un rôle clef dans la modulation du risque de développement d'allergie et nous amène à recommander d'éviter l'introduction d'un nouvel aliment lorsqu'un enfant est traité aux antibiotiques.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mort est au centre de toutes les sociétés. Quelles que soient les procédures funéraires suivies - de la crémation du cadavre à l'embaumement le plus sophistiqué -, la mort fait l'objet de traitements obéissant aux conceptions que les sociétés se font de la mort elle-même, du devenir du défunt et des relations que les vivants entretiennent avec ce dernier. Si la mort donne lieu à des rites funéraires fort variés, ceux-ci partagent cependant des fonctions communes: prendre acte d'une rupture tout en la dissolvant dans le temps long d'une transition, créer un espace dans le temps ordinaire continu, recomposer du lien social là où la mort a imposé un vide.... Etudier les rites funéraires, c'est donc s'intéresser aux réponses culturelles développées par les êtres humains face à la mort biologique, s'interroger sur les pratiques mises en place pour accompagner les défunts, mais aussi aborder la question du deuil et de la séparation des vivants d'avec leurs morts. -- Trois dimensions Pour transmettre ces connaissances, une nouvelle forme de communication multimédia a été mise au point au sein d'une équipe interdisciplinaire sciences humaines-informatique : «les eTalks», un nouveau nom que nous nous permettons d'utiliser désormais en français. Cette nouvelle forme est décrite plus bas. Quant à leur contenu, les eTalks proposés sont issus de deux cycles de formation continue organisés par l'Université de Lausanne et la Haute école pédagogique du canton de Vaud en 2010 et 2012. Les conférences, données par des professeurs d'université, de Hautes Ecoles ou par des praticiens, s'adressaient à un public provenant d'horizons professionnels très variés (enseignants, agents funéraires, membres du corps médical, représentants des communautés religieuses, etc.). Il est donc à relever que les genres littéraires de ces e-talks varient, depuis la communication académique standard, jusqu'aux témoignages de professionnels engagés sur le terrain. -- Pour des raisons de clarté, nous avons regroupé les eTalks en trois sous-thèmes: -- 1. A la découverte des cultures funéraires Génératrice de culture depuis la préhistoire, la mort suscite des attitudes et des pratiques diversifiées selon les époque et les sociétés. Les eTalks regroupés ici visent à présenter et à expliquer des pratiques funéraires développées dans trois traditions religieuses distinctes - l'Egypte ancienne, le monde réformé (du XVIe - XIXe siècle) et l'islam - et invitent ainsi à comparer des usages provenant d'horizons culturels très différents. -- 2. Rites funéraires sur le terrain Dans nos sociétés très institutionnalisées, la mort et les demandes de rites funéraires qui en découlent ont aussi un impact au sein des établissements professionnels que l'on fréquente à différentes étapes de nos vies. Les eTalks regroupés ici s'intéressent aux rites funéraires et à la gestion du deuil dans des institutions telles que l'école, les établissements médico-sociaux, le monde du travail et les pompes funèbres. Ils joignent des recherches menées sur le terrain et rendent compte des expériences vécues par les acteurs institutionnels confrontés à la mort. -- 3. Rites funéraires contemporains Certains déplorent la déperdition des rites funéraires dans nos sociétés contemporaines. Mais en est-il vraiment ainsi ? N'assiste-t-on pas aujourd'hui à une revitalisation des formes rituelles que ce soit à travers la reélaboration de pratiques anciennes ou la création de nouveaux rites ? Les eTalks regroupés ici démontrent en tous les cas une grande vitalité rituelle que ce soit par le biais de la réinterprétation et de l'adaptation des traditions religieuses ou de la créativité dont témoignent des non-croyants. Ils indiquent qu'après un temps marqué par l'éloignement de la mort, nous sommes peut-être engagés dans des formes multiples de réappropriation de cette dernière.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.