828 resultados para Risques attribuables


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transfusion de concentrés plaquettaires, dès 1958, a permis d'augmenter l'espérance et la qualité de vie des patients dans le domaine de l'onco-hématologie, notamment en réduisant les risques hémorragiques induits par les chimiothérapies intensives. Après le traumatisme de l'affaire du sang contaminé dans les années 1980-1990, la médecine transfusionnelle a adopté des exigences de sécurité et de qualité très strictes et régulées dans plusieurs pays par les instances politiques. Cependant même les mesures de qualité les plus strictes n'ont permis d'atteindre le risque « zéro », notamment en ce qui concerne les contaminations bactériennes. De plus, la prise de conscience de l'existence de nouveaux pathogènes (West Nile Virus, Chikungunya, Prions) a stimulé le développement de 3 techniques d'inactivation des pathogènes pouvant s'appliquer au plasma et aux concentrés plaquettaires : la technique INTERCEPT utilisant l'amotosalen/UVA, la technique MIRASOL avec la riboflavine/UV et la technique THERAFLEX avec les UVC. La Suisse a fait office de pionnière en étant le premier pays au monde à adopter de manière généralisée l'inactivation des pathogènes par la technique INTERCEPT pour les concentrés plaquettaires dès 2011 après sa validation par Swissmedic en 2009 et son implémentation réussie dans plusieurs centres de transfusion pilotes. Coïncidence? Le décès tragique d'un patient pédiatrique en 2009 suite à une contamination bactérienne par une transfusion de concentré plaquettaire a précédé cette décision. Les cliniciens ont besoin de disposer de concentrés plaquettaires sûrs d'un point de vue microbiologique mais également sur le plan hémostatique, d'où la nécessité de disposer de preuves solides sur l'efficacité thérapeutique de ces nouveaux produits. Ceci a fait l'objet de la revue publiée dans Blood Reviews « The clinical and biological impact of new pathogen inactivation technologies on platelets concentrates » dont l'originalité est de couvrir l'étude de l'effet des processus d'inactivation des pathogènes sur la fonction plaquettaire sous toutes ses facettes allant de la protéomique aux études d'hémovigilance. Ce travail montre l'efficacité de ces méthodes et leur sécurité et souligne que l'observation de taux de recirculation moindre peut être compensée par une augmentation du statut d'activation des plaquettes. Le deuxième article publié comme co-auteur dans le journal Blood Transfusion « In vitro evaluation of pathogen-inactivated buffy coat-derived platelet concentrates during storage: The psoralen-based photochemical treatment step-by-step » se pose la question de la modification des propriétés fonctionnelles des plaquettes dans une étude à deux bras (par comparaison entre plaquettes traitées et non traitées). En plus de deux tests utilisés en pratique clinique (agrégation plaquettaire et cytométrie de flux) un test expérimental d'adhésion plaquettaire au fibrinogène en condition statique a été développé en collaboration avec le Prof Angelillo-Scherrer dans le cadre du laboratoire de recherche et développement du SRTS-VD. Les résultats obtenus démontrent la conservation du métabolisme plaquettaire et des changements mineurs dans la capacité d'agrégation mais une augmentation de la capacité d'adhésion au fibrinogène des plaquettes traitées probablement via une augmentation de la conversion de l'intégrine ailb(B3 dans sa forme activée. Les techniques d'inactivation des pathogènes appliqués aux concentrés plaquettaires représentent un important progrès dans le domaine de la médecine transfusionnelle. Leur impact au niveau moléculaire reste cependant encore en partie inconnu et fait l'objet d'études. Le défi actuel consiste à réussir à les adopter aux concentrés érythrocytaires, ce qui révolutionnerait la médecine transfusionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background. Le considérable déclin de la malaria au niveau mondial remet en question la stratégie de chimioprophylaxie pour les voyageurs à destination de pays à risque modéré à faible de malaria. Un consensus international de la meilleure stratégie de prévention reste à trouver. Suivant le mouvement actuel de partage décisionnel, cette étude invite le voyageur au sein du débat comme acteur du processus de décision. Objectifs. Investiguer les préférences des voyageurs à destination de pays à risque modéré à faible de malaria en matière de prévention contre la malaria, en mettant en perspective leur perception du risque et les raisons de leur choix. Méthodologie. Dans la salle d'attente du Centre de Vaccination et Médecine de Voyage, les voyageurs à destination de risque modéré à faible de malaria remplissent un questionnaire et choisissent la méthode de prévention qu'ils préfèrent aidés d'un tableau leur proposant 4 choix possible ; mesure de prévention des piqûres de moustique uniquement, chimioprophylaxie, traitement de réserve seul et traitement de réserve avec test diagnostic rapide. Ils reçoivent aussi une échelle de risque illustrant les risques de malaria et d'effets indésirables des anti-malariques comparés à différents autres risques liés au voyage, inspirée par les palettes de Paling de la Communication Risk Institut. Résultats. De décembre 2012 à décembre 2013, 391 voyageurs on été inclus. 59 (15%) ont choisi la chimioprophylaxie, 116 (30%) un traitement de réserve, 112 (29%) un traitement de réserve avec test rapide diagnostic, 100 (26%) une prévention des piqûre de moustiques uniquement, and 4 (1%) plusieurs alternatives. Les raisons de choisir une chimioprophylaxie étaient la sécurité (42%), l'action préventive (29%), l'efficacité (15%) et la facilité d'utilisation (15%). Les raisons de choisir un traitement de réserve étaient moins de prise de médicament (29%), moins d'effets secondaires de ceux-ci (23%) et le prix (9%). Les voyageurs choisissant la chimioprohylaxie l'avaient plus souvent déjà utilisée par le passé [OR=3.0 (CI 1.7-5.44)], sans différence en terme de profil démographique, caractéristique du voyage ou comportement à risque. Conclusions. Quand interrogés, 85% des voyageurs à destination de pays à risque modéré à faible de malaria préfèrent ne pas prendre la chimioprophylaxie, bien que la plupart des pays la recommande encore. Les raisons avancées sont cohérentes avec leur choix. Les nouvelles recommandations devraient prendre en compte la préférence des voyageurs et inclure un processus de décision partagé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We all make decisions of varying levels of importance every day. Because making a decision implies that there are alternative choices to be considered, almost all decision involves some conflicts or dissatisfaction. Traditional economic models esteem that a person must weight the positive and negative outcomes of each option, and based on all these inferences, determines which option is the best for that particular situation. However, individuals rather act as irrational agents and tend to deviate from these rational choices. They somewhat evaluate the outcomes' subjective value, namely, when they face a risky choice leading to losses, people are inclined to have some preference for risk over certainty, while when facing a risky choice leading to gains, people often avoid to take risks and choose the most certain option. Yet, it is assumed that decision making is balanced between deliberative and emotional components. Distinct neural regions underpin these factors: the deliberative pathway that corresponds to executive functions, implies the activation of the prefrontal cortex, while the emotional pathway tends to activate the limbic system. These circuits appear to be altered in individuals with ADHD, and result, amongst others, in impaired decision making capacities. Their impulsive and inattentive behaviors are likely to be the cause of their irrational attitude towards risk taking. Still, a possible solution is to administrate these individuals a drug treatment, with the knowledge that it might have several side effects. However, an alternative treatment that relies on cognitive rehabilitation might be appropriate. This project was therefore aimed at investigate whether an intensive working memory training could have a spillover effect on decision making in adults with ADHD and in age-matched healthy controls. We designed a decision making task where the participants had to select an amount to gamble with the chance of 1/3 to win four times the chosen amount, while in the other cases they could loose their investment. Their performances were recorded using electroencephalography prior and after a one-month Dual N-Back training and the possible near and far transfer effects were investigated. Overall, we found that the performance during the gambling task was modulated by personality factors and by the importance of the symptoms at the pretest session. At posttest, we found that all individuals demonstrated an improvement on the Dual N-Back and on similar untrained dimensions. In addition, we discovered that not only the adults with ADHD showed a stable decrease of the symptomatology, as evaluated by the CAARS inventory, but this reduction was also detected in the control samples. In addition, Event-Related Potential (ERP) data are in favor of an change within prefrontal and parietal cortices. These results suggest that cognitive remediation can be effective in adults with ADHD, and in healthy controls. An important complement of this work would be the examination of the data in regard to the attentional networks, which could empower the fact that complex programs covering the remediation of several executive functions' dimensions is not required, a unique working memory training can be sufficient. -- Nous prenons tous chaque jour des décisions ayant des niveaux d'importance variables. Toutes les décisions ont une composante conflictuelle et d'insatisfaction, car prendre une décision implique qu'il y ait des choix alternatifs à considérer. Les modèles économiques traditionnels estiment qu'une personne doit peser les conséquences positives et négatives de chaque option et en se basant sur ces inférences, détermine quelle option est la meilleure dans une situation particulière. Cependant, les individus peuvent dévier de ces choix rationnels. Ils évaluent plutôt les valeur subjective des résultats, c'est-à-dire que lorsqu'ils sont face à un choix risqué pouvant les mener à des pertes, les gens ont tendance à avoir des préférences pour le risque à la place de la certitude, tandis que lorsqu'ils sont face à un choix risqué pouvant les conduire à un gain, ils évitent de prendre des risques et choisissent l'option la plus su^re. De nos jours, il est considéré que la prise de décision est balancée entre des composantes délibératives et émotionnelles. Ces facteurs sont sous-tendus par des régions neurales distinctes: le chemin délibératif, correspondant aux fonctions exécutives, implique l'activation du cortex préfrontal, tandis que le chemin émotionnel active le système limbique. Ces circuits semblent être dysfonctionnels chez les individus ayant un TDAH, et résulte, entre autres, en des capacités de prise de décision altérées. Leurs comportements impulsifs et inattentifs sont probablement la cause de ces attitudes irrationnelles face au risque. Cependant, une solution possible est de leur administrer un traitement médicamenteux, en prenant en compte les potentiels effets secondaires. Un traitement alternatif se reposant sur une réhabilitation cognitive pourrait être appropriée. Le but de ce projet est donc de déterminer si un entrainement intensif de la mémoire de travail peut avoir un effet sur la prise de décision chez des adultes ayant un TDAH et chez des contrôles sains du même âge. Nous avons conçu une tâche de prise de décision dans laquelle les participants devaient sélectionner un montant à jouer en ayant une chance sur trois de gagner quatre fois le montant choisi, alors que dans l'autre cas, ils pouvaient perdre leur investissement. Leurs performances ont été enregistrées en utilisant l'électroencéphalographie avant et après un entrainement d'un mois au Dual N-Back, et nous avons étudié les possibles effets de transfert. Dans l'ensemble, nous avons trouvé au pré-test que les performances au cours du jeu d'argent étaient modulées par les facteurs de personnalité, et par le degré des sympt^omes. Au post-test, nous avons non seulement trouvé que les adultes ayant un TDAH montraient une diminutions stable des symptômes, qui étaient évalués par le questionnaire du CAARS, mais que cette réduction était également perçue dans l'échantillon des contrôles. Les rsultats expérimentaux mesurés à l'aide de l'éléctroencéphalographie suggèrent un changement dans les cortex préfrontaux et pariétaux. Ces résultats suggèrent que la remédiation cognitive est efficace chez les adultes ayant un TDAH, mais produit aussi un effet chez les contrôles sains. Un complément important de ce travail pourrait examiner les données sur l'attention, qui pourraient renforcer l'idée qu'il n'est pas nécessaire d'utiliser des programmes complexes englobant la remédiation de plusieurs dimensions des fonctions exécutives, un simple entraiment de la mémoire de travail devrait suffire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte en constante évolution, l'élaboration, la mise en oeuvre et l'évaluation des politiques publiques de biodiversité nécessitent d'anticiper les changements futurs possibles afin de pouvoir se préparer à temps. Or les informations concernant ces changements sont nombreuses et les enjeux qui pourraient s'avérer importants à l'avenir sont souvent peu visibles. Pour répondre à ce défi, une expertise multi-acteurs et multidisciplinaire s'inspirant des démarches d'horizon scanning et intitulée BioPIQue 2013 a permis d'identifier 25 questions émergentes, dont 10 questions stratégiques, pour les politiques publiques de biodiversité en France métropolitaine d'ici à 2020. Ces questions émergentes sont autant d'opportunités et de risques que l'ensemble es acteurs qui souhaitent avancer vers une plus grande prise en compte des enjeux de biodiversité peuvent saisir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La coexistence des charges professionnelles, familiales, et d'aide à des ascendants expose la Génération Sandwich (GS) à des risques potentiels pour sa santé. Toutefois, les connaissances sur la GS sont insuffisantes pour permettre aux infirmières du secteur de la santé au travail de développer des interventions en promotion de la santé basées sur des preuves. Ce manque de clarté est préoccupant au vu de certaines tendances sociodémographiques. La présente étude vise à dresser le portrait des travailleurs de la GS en examinant les liens entre leurs caractéristiques, leurs charges co-existantes et leur santé perçue. Pour ce faire, nous avons développé un cadre de référence salutogénique. puis, nous l'avons utilisé pour conduire une recherche descriptive corrélationnelle transversale. un questionnaire électronique a permis de récolter les données de 826 employés d'une administration publique suisse. L'examen a montré que 23.5 % de l'échantillon appartenait à la GS. Cette appartenance ne dépendait pas du sexe. la charge de travail totale (70.5 h/sem) de la GS différait significativement de celle du reste de l'échantillon (62.8 h/sem). Nous n'avons pas trouvé de relation entre cette charge totale et la santé physique ou mentale des femmes. En revanche, il y avait une relation négative entre cette charge totale et la santé physique des hommes, et cette relation était proche du seuil de significativité pour la santé mentale de ces derniers. Grâce à une analyse soucieuse de faire évoluer favorablement les inégalités de genre (gender-transformative), cette étude fournit des pistes pour fonder des interventions préventives en faveur de la santé des membres de la GS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les prévisions démographiques pour le canton de Vaud estiment que le nombre de résidents âgés de 65-79 ans s'accroîtra de presque 50% entre 2010 et 2030, tandis que l'effectif des plus âgés (80 ans et plus) augmentera de presque 80%. Dans ce contexte de vieillissement accéléré de la population, ce travail estime l'évolution du nombre de séjours au CHUV attribuables aux patients âgés. Une précédente analyse de la Statistique médicale des hôpitaux décrivait les séjours hospitaliers des patients âgés au CHUV, et les comparait à ceux des patients plus jeunes. La même source de données a été utilisée pour effectuer des projections pour les hospitalisations somatiques, psychiatriques, les séjours en lit B, en soins intensifs, et les séjours attribuables à certaines pathologies liées au vieillissement. En l'absence d'hypothèses ou de tendances fortes relatives aux autres facteurs qui pourraient influencer le recours à l'hôpital ou les durées de séjour, les paramètres observés sur les séjours enregistrés au CHUV durant les années 2006-2009 sont maintenus constants (taux d'hospitalisation par sexe et groupe d'âge, par pathologie, taux de recours au CHUV plutôt qu'à un autre hôpital, proportion de patients orientés en lits B). Les projections du nombre de séjours sont ainsi fortement liées aux prévisions démographiques, et diffèrent de celles-ci en raison de la répartition spécifique des séjours par âge et par sexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les prévisions démographiques pour le canton de Vaud estiment que le nombre de résidents âgés de 65-79 ans s'accroîtra de presque 50% entre 2010 et 2030, tandis que l'effectif des plus âgés augmentera de presque 80%1. Dans ce contexte de vieillissement accéléré de la population, l'évolution du nombre de séjours au CHUV attribuables aux patients âgés peut être anticipée. Une précédente analyse de la Statistique médicale des hôpitaux décrivait les séjours hospitaliers des patients âgés au CHUV, et les comparait à ceux des patients plus jeunes. Sur la base de ces données, des projections ont été effectuées pour les hospitalisations somatiques, psychiatriques, les séjours en lit B, en soins intensifs, et les séjours attribuables à certaines pathologies liées au vieillissement, identifiés au moyen du diagnostic principal. Les séjours en semi-hospitalisation et les prestations ambulatoires du CHUV ne sont pas pris en considération dans ces projections. Une sélection des résultats est rapportée dans cette brochure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pseudarthrose est définie comme une fracture qui ne guérit pas sans intervention additionnelle neuf mois après le traumatisme et en l'absence de progression radiologique pendant les trois derniers mois. Les fractures ostéoporotiques sont à plus grand risque de complications chirurgicales. On se pose de plus en plus souvent la question d'ajouter un traitement médicamenteux pour accélérer le processus de guérison fracturaire. Il existe des données montrant que le tériparatide (anabolisant osseux issu de l'hormone parathyroïdienne) accélère la guérison osseuse et améliore le devenir fonctionnel, avec ou sans chirurgie, dans des situations de fractures typiques ou atypiques. Les risques liés à ce traitement sont faibles, mais la prescription nécessite l'accord de l'assurance-maladie dans cette indication. Nous rapportons notre expérience sur l'utilisation de cette molécule, hors indication officielle, dans des cas complexes de non-guérison fracturaire. Pseudoarthrosis is defined as a non healing fracture 9 months after trauma and without radiological progression within the last three months. Osteoporotic fractures have a greater risk of chirurgical complications. The question of giving a medical treatment in the purpose of accelerating fracture healing is an increasing concern. There are data showing that with teriparatide (bone anabolic treatment derived from the parathyroid hormone) bone healing and functional status are improved, with or without surgery, in the case of either typical or atypical fractures. The risks of this treatment are low but health insurance agreement is needed in this indication. We report our experience with the use of this molecule, out of the official indication, in complex situations of non healing fractures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vitesse de l'onde de pouls (VOP) est la méthode pour mesurer la rigidité artérielle la plus répandue et la plus validée. C'est aussi un prédicteur indépendant de la mortalité. La Matrix Gla- protein (MGP) est une protein qui inhibe les calcifications vasculaires. MGP nécessite une enzyme dérivée de la vitamine K pour être activée, à l'instar de certains facteurs de coagulation. La forme inactive de MGP, connue sous le terme de « desphospho-uncarboxylated MGP » (dp-ucMGP), peut-être mesurée dans le plasma. Plus les apports de vitamine K sont importants plus les taux de dp-ucMGP diminue. Les taux de dp-ucMGP ont déjà été étudiés et associés à différents marqueurs cardiovasculaires (CV), aux événements CV et à la mortalité. Dans notre travail de recherche nous avons émis l'hypothèse que des taux élevés de dp-ucMGP seraient associés à une VOP élevée. Nous avons recruté les participants à travers une étude multicentrique suisse (SKIPOGH). Le processus de recrutement ciblait des familles dans lesquelles plusieurs membres étaient d'accord de participer. Nous avons mesuré la dp-ucMGP plasmatique grâce à la méthode immuno-enzymatique « ELISA ». Concernant la VOP, nous avons mesuré les ondes de pression au niveau carotidien et fémorale grâce à un tonomètre et calculer la vitesse de leurs propagations. Par la suite nous avons utilisé un modèle de régression linéaire multiple afin de déterminer le lien entre la VOP et dp- ucMGP. Le modèle était ajusté pour l'âge, la fonction rénale et les risques CV classiques. Nous avons inclut 1001 participants dans les analyses (475 hommes et 526 femmes). La valeur moyenne de la VOP était de 7.87 ± 2.10 (m/s) et celle de dp-ucMGP de 0.43 ± 0.20 (nmol/L). La VOP était positivement et significativement associée à dp-ucMGP avant comme après ajustement pour le sexe, l'âge, l'indice de masse corporel, la taille, la pression artérielle systolique et diastolique, la fréquence cardiaque, la fonction rénale, les taux de cholestérol (LDL, HDL), la glycémie, la consommation de tabac, la présence d'un diabète, l'utilisation de médicaments antihypertenseurs ou hypolipémiants et la présence d'antécédents CV (P<0.01). En conclusion, des taux élevés de dp-ucMGP sont positivement et indépendamment associés à la rigidité artérielle après ajustement pour les facteurs de risques CV traditionnels, la fonction rénale et l'âge. Des études expérimentales sont nécessaires afin de déterminer si une supplémentation en vitamine K permet de ralentir l'avancement de la rigidité artérielle grâce à son activation de la MGP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face au fardeau croissant que représentent les maladies non transmissibles, et face à une proportion plus élevée de sa population qui est insuffisamment active physiquement par rapport au reste de la Suisse, le canton du Tessin (Service de promotion et d'évaluation sanitaire, SPVS) lance le projet pilote « Girasole » qui s'adresse aux médecins de premier recours et à leurs patients sédentaires. Ce projet s'appuie sur le concept « Coaching Santé », porté par le Collège de médecine de premier recours, et sur le concept « Paprica », développé notamment par la Policlinique médicale universitaire de Lausanne. Le projet s'appuie sur une vision de prise en charge qui s'inspire du « Chronic care model ». Le réseau de soin, centré autour des compétences et des ressources du patient et de sa communauté, comprend le médecin de premier recours ainsi que les éventuels autres professionnels et les structures existantes susceptibles de faciliter la mise en oeuvre du changement de comportement visé par le patient. Les patients présentant des atteintes à leur santé ou des risques particuliers pourront également bénéficier d'un conseil adapté à leur situation (activité physique adaptée).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article a pour but d'identifier et de mieux comprendre les liens entre les motivations des pratiquantes de sports de remise en forme, les troubles du comportement alimentaire (TCA) et les troubles psychologiques associés (i.e., insatisfaction corporelle, dépendance à l'exercice physique). Au total, 1270 pratiquantes ont répondu à un questionnaire et 40 ont participé à un entretien semi-directif. Les motivations de perte de poids et/ou modification de l'apparence corporelle sont en lien avec les TCA et l'insatisfaction corporelle. La dépendance à l'exercice physique n'est pas systématique chez les femmes avec TCA. Les pratiquantes de sports de remise en forme motivées uniquement par la perte de poids et/ou la modification de l'apparence sont plus à risques dans levdéveloppement des TCA. The aim of this study was to identify and to better understand links between females' motives in fitness sports, eating disorders (ED) and associated psychological disorders (i.e. body dissatisfaction, exercise dependence). In all, 1270 women were asked by questionnaire and 40 by semi-structured interview. Weight loss/body appearance change motives are related to ED and body dissatisfaction. Exercise dependence are not systematic in women with ED. Fitness sports are at risk in the development of ED for women motivated only by weight loss/body appearance change motives

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Présent sous forme physiologique chez environ 60% des nourrissons normaux de moins de quatre mois, le reflux gastro-oesophagien (RGO) n'est symptomatique que chez 10% d'entre eux. Il est également plus fréquent chez les enfants atteints de troubles neurologiques quelque soit leur âge. Non traité, il peut avoir des conséquences graves (oesophagite, sténose peptique, endobrachyoesophage (Barrett) puis adénocarcinome de l'oesophage). Il s'agit donc d'un problème qu'il faut savoir détecter et traiter précocement. Les signes et symptômes du RGO sont multiples et varient en fonction de l'âge. Ils ne se limitent pas au seul vomissement. Le traitement initial du RGO chez l'enfant est médical. En cas d'échec de celui-ci ou dans certaines indications (comme les RGO récidivants, les malformations congénitales, les anomalies morphologiques ou les pathologies neurologiques) un traitement chirurgical est nécessaire. L'évolution des traitements conservateurs et des techniques chirurgicales lors de ces dernières années en font un bon sujet pour une étude rétrospective. Objectif: Le but de cette étude est de mettre en évidence dans une population d'enfants ayant bénéficié d'une cure chirurgicale anti-reflux la fréquence relative des symptômes selon la pathologie initiale de l'enfant, puis de préciser le choix de traitement et sa durée. Nous analyserons également les risques d'échec qui s'y rapportent. Ces conclusions devraient nous permettre de proposer un algorithme décisionnel de prise en charge du RGO de l'enfant en pré et post-opératoire. Méthodologie: Étude rétrospective sur 9 ans se basant sur les dossiers médicaux-chirurgicaux de 132 enfants opérés d'un reflux gastro-oesophagien dans le Service de Chirurgie Pédiatrique du Centre Hospitalier Universitaire Vaudois (CHUV) par le Professeur Olivier Reinberg et son équipe entre le 1er janvier 2003 et le 31 décembre 2012. Résultats: Sur les 132 enfants, 93 ont bénéficié d'une fundoplicature selon Toupet, 34 selon Nissen et 5 selon Dor. 57% des enfants présentant un déficit neurologique ont été opérés selon la technique de Nissen contre 7% des enfants "sains". Les taux de démontage et de récidive sont respectivement 5.4% et 3.5 % pour la technique selon Toupet et 2.9% et 0% pour la technique de Nissen. Le taux de démontage global de la fundoplicature est de 4.6% (N=6) Conclusions: La fundoplicature est une méthode de choix pour les enfants chez qui tous les autres traitements ont échoué ou chez qui la présence concomitante du RGO et des comorbidités est délétère à une croissance harmonieuse. Grâce à la chirurgie, la qualité de vie d'au moins 95% des enfants est grandement améliorée après la disparition de symptômes quotidiens et qui peuvent donner lieu à des complications graves.