1000 resultados para Otite moyenne aiguë


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certains pathogènes tels que le virus de l'hépatite C ainsi que le virus de l'immunodéficience humaine sont capables de détourner les mécanismes de défense du système immunitaire adaptatif afin d'établir des infections chroniques chez l'homme. La souche clone-13 du virus de la chorioméningite lymphocytaire est utilisée comme modèle d'études d'infection virale chronique chez la souris. Les raisons qui expliqueraient la persistance de certains virus ne sont pas encore bien définies. Toutefois, il a été montré qu'une exposition prolongée à un environnement inflammatoire ainsi que la présence prolongée de l'antigène sont des facteurs qui vont déclencher un procédé de différentiation particulier des lymphocytes T CD8+. Ces cellules sur-expriment alors des récepteurs inhibiteurs tels que PD-1 tandis que leur capacité à produire des cytokines diminue. Ce procédé de différentiation est appelé « exhaustion » et serait à l'origine de la génération de réponses lymphocytaires non ou peu fonctionnelles entraînant de ce fait la persistance de l'infection. Néanmoins, il a également été démontré que ces lymphocytes maintiennent des fonctions effectrices et qu'ils permettent de limiter la réplication du virus. Afin d'étudier la fonction effectrice résiduelle de ces lymphocytes T, nous avons transféré des cellules provenant de souris infectées chroniquement dans des souris receveuses naïves qui ont à leur tour été infectées avec le virus. Grâce à ces expériences, nous avons démontré que les cellules transférées contiennent des cellules qui sont capables de i) re-proliférer, ii) de protéger les souris contre une infection virale, et de iii) survivre en l'absence d'antigène. Nous avons remarqué que les cellules stimulées de façon chronique maintiennent le même phénotype lorsqu'elles sont transférées dans des souris naïves soumises à une infection virale aiguë. Nous avons de ce fait conclu que les cellules stimulées chroniquement contiennent une sous-population de cellules qui comporte des attributs de cellules T mémoire. D'autre part, nous avons pu identifier le facteur de transcription Tcf-1 comme l'élément essential pour la génération des cellules T ressemblant à des cellules mémoires. D'autre part, nous avons étudié l'impact du niveau de stimulation via le récepteur des cellules T (TCR) sur le phénotype adopté par les lymphocytes T au cours d'une infection chronique. Dans ce but, nous avons généré des souches de virus recombinants qui expriment un épitope modifié de manière à réduire le niveau de stimulation via le TCR. D'autre part, nous avons utilisé un mélange de deux souches virales de manière à moduler spécifiquement la quantité d'un épitope tout en conservant la même charge virale. Nous avons montré que la quantité d'antigène avait plus d'influence sur le phénotype des lymphocytes T que la force d'interaction entre le complexe peptide-CMH et le TCR. De plus, l'apparition de ce phénotype ne semble pas avoir d'impact sur la prolifération des cellules en réponse à une infection primaire ou secondaire. Ainsi, nous proposons un modèle par lequel le procédé d'« exhaustion » des cellules T correspond à une différentiation cellulaire particulière qui est indépendante de la capacité de prolifération des cellules. De manière générale, ces découvertes apportent de nouvelles connaissances sur les sous-catégories de lymphocytes T CD8+ qui sont générés pendant une infection virale chronique. Nous pensons que la réponse effectrice du système immunitaire est maintenue pendant de longues périodes grâce à la présence de cellules par partagent certaines caractéristiques avec des cellules mémoires. L'étude approfondie de ces cellules peut avoir des implications importantes sur l'optimisation des stratégies utilisant l'immunothérapie pour combattre les infections chroniques et cancers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Il est actuellement reconnu que l'endothélium vasculaire joue un rôle primordial dans la genèse des maladies cardiovasculaires, notamment l'artériosclérose. Dès lors, il est important de pouvoir investiguer la fonction endothéliale en clinique. Pour ce faire, il est particulièrement simple d'examiner la microcirculation cutanée, car celle-ci est très simplement accessible, de manière non-invasive, par fluxmétrie laser-Doppler. Pratiquement, on mesure l'augmentation du flux sanguin dermique en réponse à des stimuli connus pour agir via l'endothélium vasculaire. Les stimuli endothélium-dépendants les plus courants sont l'interruption temporaire du flux sanguin qui est suivie d'une hyperémie réactive, et l'administration transcutanée d'acétylcholine (Ach) par iontophorèse. La iontophorèse consiste à obtenir le transfert d' une substance ionisée, telle l'Ach, par l'application d'un courant électrique de polarité appropriée. L'objectif du présent travail était de déterminer le rôle des prostaglandines dans ces réponse vasodilatatrices dépendante de l'endothélium, rôle actuellement peu clair. 23 jeunes hommes volontaires non fumeurs et en bonne santé habituelle ont été examinés lors de deux visites séparées par 1 à 3 semaines. Lors de chaque visite, l'hyperémie réactive et la réponse vasodilatatrice à l'Ach ont été déterminées dans la peau de l'avant bras après administration soit d'un placebo, soit d'un inhibiteur de la cyclooxygénase (COX, enzyme qui contrôle la synthèse des prostaglandines). Chez certains sujets, l'inhibiteur était de l'acétylsalicylate de lysine (900 mg par voie intraveineuse). Chez d'autres sujets, il s'agissait d'indométhacine. (75 mg par voie orale). Comme la stimulation nociceptive liée au courant iontophorétique peut influencer la réponse à l'Ach, celle-ci a été déterminée en présence et en l'absence d'anesthésie de surface (crème de lidocaine). La réponse à l'Ach a été obtenue pour 4 doses différentes de cet agent (exprimées sous la forme de la densité de charge iontophorétique appliquée : 0.28, 1.4, 7, et 14 millicoulombs par cm2 de peau exposée). Le flux sanguin dermique était mesuré par imagerie laser-Doppler, une variante de la fluxmétrie laser-Doppler classique permettant l'exploration d'une surface de peau de taille arbitraire. Quelle que soit la condition testée, nous n'avons jamais observé la moindre influence de l'inhibition de la COX sur l'hyperémie réactive, ni sur la réponse à l'Ach. Cette dernière était augmentée significativement par l'anesthésie cutanée, que les sujets aient reçu ou non de l'acétylsalicylate de lysine ou de l'indométhacine . Par exemple, la réponses moyenne (±SD) à la plus haute dose d'Ach (testée sur 6 sujets, et exprimée en unités de perfusion, comme il est d'usage en fluxmétrie laser-Doppler ) était la suivante : en l'absence d'anesthésie : acétylsalicylate de lysine 339 ± 105, placebo 344 ± 68 ; avec l'anesthésie : acétylsalicylate de lysine 453 ± 76 , placebo 452 ± 65 (p * 0.001 pour les effets de l'anesthésie). En conclusion, nos résultats infirment une contribution des prostaglandines à l'hyperémie réactive ou à la vasodilatation induite par l'acétylcholine dans la microcirculation cutanée. Dans ce lit vasculaire, l'anesthésie locale accroît la vasodilatation induite par l'acétylcholine par un mécanisme indépendant des prostaglandines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Introduction et hypothèse : Certains acides gras polyinsaturés de type n-3 PUFA, qui sont contenus dans l'huile de poisson, exercent des effets non-énergétiques (fluidité des membranes cellulaires, métabolisme énergétique et prostanoïdes, régulation génique de la réponse inflammatoire). Les mécanismes de la modulation de cette dernière sont encore mal connus. L'administration d'endotoxine (LPS) induit chez les volontaires sains une affection inflammatoire aiguë, comparable à un état grippal, associé à des modifications métaboliques et inflammatoires transitoires, similaires au sepsis. Ce modèle est utilisé de longue date pour l'investigation clinique expérimentale. Cette étude examine les effets d'une supplémentation orale d'huile de poisson sur la réponse inflammatoire (systémique et endocrinienne) de sujets sains soumis à une injection d'endotoxine. L'hypothèse était que la supplémentation d'huile de poisson réduirait les réponses physiologiques à l'endotoxine. Méthodes : Quinze volontaires masculins (âge 26.0±3.1 ans) ont participé à une étude randomisée, contrôlée. Les sujets sont désignés au hasard à recevoir ou non une supplémentation orale : 7.2 g d'huile de poisson par jour correspondant à un apport de 1.1 g/jour d'acides gras 20:5 (n-3, acide écosapentaénoïque) et 0.7 g/jour de 22:6 (n-3, acide docosahexaénoïque). Chaque sujet est investigué deux fois dans des conditions identiques : une fois il reçoit une injection de 2 ng par kg poids corporel de LPS intraveineuse, l'autre fois une injection de placebo. Les variables suivantes sont relevées avant l'intervention et durant les 360 min qui suivent l'injection :signes vitaux, dépense énergétique (EE) et utilisation nette des substrats (calorimétrie indirecte, cinétique du glucose (isotopes stables), taux plasmatique des triglycérides et FFA, du glucose, ainsi que des cytokines et hormones de stress (ACTH, cortisol, Adré, Nor-Adré). Analyses et statistiques :moyennes, déviations standards, analyse de variance (one way, test de Scheffé), différences significatives entre les groupes pour une valeur de p < 0.05. Résultats :L'injection de LPS provoque une augmentation de la température, de la fréquence cardiaque, de la dépense d'énergie et de l'oxydation nette des lipides. On observe une élévation des taux plasmatiques de TNF-a et IL-6, de la glycémie, ainsi qu'une élévation transitoire des concentrations plasmatiques des hormones de stress ACTH, cortisol, adrénaline et noradrénaline. L'huile de poisson atténue significativement la fièvre, la réponse neuro-endocrinienne (ACTH et cortisol) et sympathique (baisse de la noradrénaline plasmatique). Par contre, les taux des cytokines ne sont pas influencés par la supplémentation d'huile de poisson. Conclusion : La supplémentation d'huile de poisson atténue la réponse physiologique à l'endotoxine chez le sujet sain, en particulier la fièvre et la réponse endocrinienne, sans influencer la production des cytokines. Ces résultats soutiennent l'hypothèse que les effets bénéfiques de l'huile de poisson sont principalement caractérisés au niveau du système nerveux central, par des mécanismes non-inflammatoires qui restent encore à élucider.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Gang membership constitutes one of the strongest risk factors of delinquency. Research on this topic found that gang members commit more offences in general and are particularly more prone to violent offences than other juveniles. Indeed, they are responsible for approximately 50 to 86% of the total offences perpetrated by juvenile offenders. In Switzerland, as in other European countries, there is a reluctance to use the term of gang to talk about delinquent youth groups. However, this term implies many stereotypes that do not apply to the majority of juvenile American gangs. Thus, it appears that some delinquent youth groups in European countries can be described as gangs. This manifestation of juvenile delinquency is increasingly studied by European researchers, whose studies demonstrate the high level of delinquency committed by gang members. This research assesses the proportion of gangs in Switzerland and their level of involvement in delinquency. Victimization of gang members as well as risk factors of gang membership are also analyzed. For this research, data of two self-reported juvenile delinquency surveys were used, namely the survey of "les jeunes et l'insécurité" and the second wave of the International Self-Reported Delinquency Survey (ISRD-2). The first survey took place in the canton of Vaud among 4'690 teenagers, and the second one was conducted across Switzerland by interviewing 3'648 teenagers aged 12 to 16. The results from the ISRD-2 survey show that 4.6% of young Swiss belong to a gang, whereas this is the case for 6.5% of teenagers in the canton of Vaud. About a third of the gang members ara girls. A strong link between the commission of offences and gang membership was found in both surveys. A teenager who does not belong to a gang commits on average 1.9 offences per year, whereas this number increases to 7.2 offences for teenagers who have delinquent peers and to 16 offences for gang members. The risk of victimization is also stronger for a gang member than for a non-gang member, as it is 4 to 5 times higher for assaults and robberies. International comparisons based on the ISRD-2 survey have been conducted, highlighting the high level of delinquency of gang members and their vulnerability to victimization. Risk factors of gang membership include the influence of accessibility to drugs in the neighbourhoods, the lack of self-control of the teenagers and their consumption of cannabis. Résumé Un des facteurs de risque les plus importants de la délinquance juvénile est l'appartenance à un gang. Les recherches faites sur cette problématique indiquent que les membres de gangs commettent plus de délits et des délits plus violents que les autres jeunes et qu'ils sont responsables d'environ 50 â 86% des actes délinquants perpétrés. En Suisse, tout comme dans d'autres pays européens, une réticence existe à utiliser le terme de gang pour parler des bandes de jeunes délinquants. Pourtant, ce terme implique de nombreux stéréotypes qui ne correspondent toutefois pas à la majorité des gangs américains. Ainsi, il apparaît que certaines bandes de jeunes délinquants présentes dans des pays européens peuvent être qualifiées de gangs. Cette manifestation de ta délinquance juvénile est de plus en plus étudiée par les chercheurs européens qui démontrent également la sur-criminalité de leurs membres. I La présente recherche évalue dans quelle proportion tes membres de gangs existent en Suisse et Quel est leur niveau d'implication dans la délinquance. Leur victimisation ainsi que les facteurs de risque de l'affiliation à de tels groupes y sont également analysés. Pour ce faire, les données de deux enquêtes ont été utilisées, à savoir l'enquête des jeunes et de l'insécurité portant sur 4'690 élèves de 8'? et 9*? année scolaire du canton de Vaud, ainsi que la deuxième vague du sondage de délinquance auto-reportée portant sur 3'648 jeunes suisses ayant entre 12 et 16 ans (ISRD-2 -International Self Reported Delinquency-). Ainsi, 4.6% des jeunes suisses, selon la recherche de l'ISRD-2, et 6.5% des jeunes vaudois, selon l'enquête des jeunes et de l'insécurité, appartiennent à un gang ; un tiers des membres étant de sexe féminin. Un lien fort entre la commission de délits et l'affiliation à un gang a été mis en évidence dans les deux enquêtes. Un adolescent qui ne fait pas partie d'un gang commet en moyenne 1.9 délits par année, un jeune qui a des pairs délinquants en commet en moyenne 7.2, alors que la moyenne annuelle des jeunes qui appartiennent à un gang s'élève à 16. Le risque de devenir victime est également plus important lorsqu'un jeune fait partie de tels groupes, puisqu'il est 4 à 5 fois plus élevé pour les agressions et les brigandages. Des comparaisons internationales, basées sur l'enquête de l'lSRD-2, ont pu être effectuées, mettant en exergue la sur-criminalité des membres de gangs ainsi que leur vulnérabilité face à la victimisation. Des facteurs de risque de l'affiliation è un gang, tels que l'influence de l'accessibilité à la drogue dans les quartiers où habitent les jeunes, le manque d'autocontrôlé de ces derniers ou leur consommation de cannabis ont été relevés

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreuses études cliniques ont révélé une corrélation étroite entre un régime alimentaire riche en sel et le développement d'une hypertrophie ventriculaire gauche. Cette association a été classiquement attribuée aux effets hypertensifs à long terme d'une alimentation riche en sel. Toutefois, les études épidémiologiques ont également démontré que l'hypertrophie ventriculaire gauche peut survenir indépendamment de changements de pression artérielle.¦L'ingestion de sel n'étant pas distribuée de manière homogène durant la journée mais ayant lieu principalement durant les repas, nous émettons l'hypothèse que chaque repas riche en sel induit une augmentation aiguë de la pression artérielle, des pressions de remplissage cardiaque, du volume d'éjection systolique et du débit cardiaque. L'augmentation résultante du travail cardiaque pourrait ainsi à la longue entraîner une hypertrophie cardiaque.¦Pour tester si un repas riche en sel conduit à des modifications hémodynamiques favorisant l'hypertrophie cardiaque, nous avons comparé chez la même personne jeune et en bonne santé la réponse hémodynamique à un repas modérément salé (45 mmol) à celle d'un repas riche en sel (165 mmol de sodium). Les repas ont été pris de manière randomisée à 7 jours d'intervalle. Divers paramètres hémodynamiques ont été mesurés en continu avant et jusqu'à 140 minutes après chaque repas. Nos résultats montrent que les augmentations post-prandiales du volume d'éjection systolique et du travail cardiaque ont été plus prononcées après un repas à haute teneur en sel par rapport à un repas modérément salé.¦Nous spéculons que des apports chroniques en sel induisent des charges hémodynamiques répétées. Etant donné que la concentration plasmatique de sodium, qui est augmentée après un repas salé, est également capable de stimuler la croissance des myocytes cardiaques, il est possible que la combinaison sur des mois ou des années de pics hypernatrémiques post-prandiaux et de charges cardiaques soit responsable de l'hypertrophie cardiaque souvent observée avec une alimentation riche en sel.¦-¦Many clinical studies have shown a close correlation between a chronic high salt diet and the development of left ventricular hypertrophy. This association has been classically attributed to the long-term hypertensive effects of a high salt diet. However, epidemiological studies have also shown that left ventricular hypertrophy may occur independently of changes in arterial pressure.¦Since salt ingestion during a high salt diet is not distributed evenly over a 24-hr period, but occurs essentially during meal periods, we speculate that each acute salt load could lead to greater acute increases in blood pressure, heart filling pressure, stroke volume and cardiac output, putting an additional work load on the heart, promoting in the long run cardiac hypertrophy.¦To test whether a high salt meal leads to hemodynamic changes that may favor cardiac hypertrophy, we compared in the same healthy young individual the response to a moderately salted meal (45 mmol) and to a high-salt meal (165 mmol sodium), given in a random order on separate days, on various cardiovascular parameters that were continuously monitored before and up to 140 minutes after the meal. Our results show that the post-prandial increases in stroke volume, and cardiac work were more pronounced after a high-salt meal than after a low-salt meal.¦We speculate that repetitive salt loads associated with a high salt diet may lead to repetitive hemodynamic loads. Since plasma sodium concentration, which is increased after a salty meal, is also capable to stimulate myocyte growth, it is possible that the combination of post-prandial hypernatremic peaks and of cardiac loads may be responsible, when repeated many times over period of months, of the cardiac hypertrophy often seen with a high salt diet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: en oncologie apparaissent sur le marché depuis quelques années de nouveaux traitements en formulation orale facilitant l'administration et améliorant la qualité de vie du patient mais augmentant le risque de non adhésion et d'erreurs de posologie. L'observation par MEMS® (Medication Event Monitoring System) permet le suivi et l'encadrement du traitement oral et par le biais d'entretiens semi structurés menés par le pharmacien, ouvre la discussion sur les problèmes révélés par cette prise en charge. Méthode: étude non randomisée prospective uni centrique regroupant 50 patients inclus dans 3 groupes de traitements oncologiques oraux courants (capecitabine, letrozole/exemestane, imatinib/sunitinib) bénéficiant d'un suivi oncologique classique et équipés d'un MEMS® pour un an maximum. La persistance et la qualité d'exécution sont les deux paramètres mesurés grâce aux données récoltées électroniquement. Les entretiens sont dédiés à la prévention de la non adhésion et à la gestion des effets secondaires médicamenteux. La satisfaction est évaluée par un questionnaire à la fin du suivi. Résultats: à ce jour 38 patients ont été inclus dans l'étude. Les données complètes sont disponibles pour les 19 premiers patients dont 10 sous capecitabine et 9 sous letrozole/exemestane. Dans ce collectif l'âge médian est de 66 ans avec une majorité de femmes (11:8). La persistance à 10 jours est de 85% et la qualité d'exécution de 99%. Les toxicités observées supérieures à grade 1 sont 1 syndrome mains-pieds (G3) et 1 syndrome coronarien aigu (G3). Le questionnaire de fin de suivi relève une satisfaction de 85% des patients pour les entretiens proposés (57% utiles, 28% très utiles, 15% inutiles) et le succès quant à l'intégration du MEMS® dans leur quotidien (57% très facile, 43% facile). Conclusion: la persistance et la qualité d'exécution observées dans notre collectif sont excellentes. La satisfaction retrouvée auprès des patients reflète le besoin d'un soutien complémentaire face à la complexité de la maladie oncologique. La gestion pluridisciplinaire profite tant aux patients qu'au binôme médecin-pharmacien par l'amélioration de la communication globale entre les divers acteurs et par l'identification précoce des risques de non adhésion. La poursuite de cette étude et l'analyse des futures données permettra de mesurer le réel impact de notre intervention et de justifier le bénéfice pour des patients sous traitement similaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de l'article L'hypovitaminose D3 est bien connue et courante chez la population âgée en Occident. Toutefois, elle est probablement sous-diagnostiquée chez les jeunes femmes immigrantes, bien qu'elle soit bien documentée, principalement en Angleterre dans la population Indo-Pakistanaise. Lorsque ce déficit est diagnostiqué, le traitement substitutif est simple et bon marché. Nous avons suspecté une haute prévalence chez de jeunes femmes requérantes d'asile, surtout chez celles provenant de cultures différant quant à l'exposition solaire et la diète. Nous publions donc une série de 11 cas de patientes avec une hypovitaminose D symptomatique issues de la consultation générale de la Policlinique Médicale Universitaire. Toutes les patientes présentaient une anamnèse d'une faible exposition solaire et de douleurs osseuses diffuses, d'une fatigue, d'une faiblesse musculaire ou des modifications de la marche. Toutefois, les premiers diagnostics évoqués par les médecins étaient une possible somatisation (3 patientes), des douleurs dorso-lombaires chroniques (4 patientes) et des symptômes somatiques multiples et inexpliqués (3 patientes). Le diagnostic a été posé d'emblée chez une patiente seulement. La durée moyenne des plaintes avant la pose du diagnostic était de 38 mois et 5 jours. Avec le traitement de cholecalciférol et de calcium, les symptômes disparaissaient entre 1 et 3 mois, chez une patiente ils ont duré sept mois. Le taux moyen de 250H vitamine D3 était de 10.9 nmol/l (IR 21-131). Le taux moyen de calcium était de 2.19 mmol/l (2.15-2.55) et quatre patientes présentaient une hypocalcémie. Nous pensons donc que les femmes requérantes d'asile sont à risque d'une durée prolongée de symptômes, de part la possible haute prévalence de cette condition et la difficulté chez les médecins à la reconnaître. Le diagnostic d'hypovitaminose devrait être recherché chez les femmes requérantes d'asile souffrant de douleurs musculo-squelettiques de longue durée. Le premier diagnostic souvent évoqué, dans un contexte psychosocial souvent difficile, était de l'ordre d'un trouble somatoforme douloureux ou de somatisations. Toutefois, les douleurs liées à l'hypovitaminose D3 sont relativement bien définies ; elles sont symétriques, osseuses, débutent souvent dans la région lombaire pour ensuite s'étendre au bassin, aux membres inférieures proximalement et à la cage thoracique. Le traitement substitutif est simple, peu onéreux et il serait judicieux d'initier d'autres études pour évaluer le besoin d'une substitution de routine dans la population présentée. Abstract: Deficiency of vitamin D, which can lead to osteomalacia, is common in elderly patients in Western countries. However, it is still widely underdiagnosed in young immigrant women, even though the condition has been extensively reported in the immigrant Indo- Asian population in the United Kingdom since the 1960s. A recent study reports an average 59 months before diagnosis was established, and another study found a prevalence of 78% of hypovitaminosis D3 (compared with 58% in controls) in an Indo-Asian population attending a UK rheumatology clinic. When recognised, hypovitaminosis D3 is easily treatable. A study on osteomalacic myopathy in veiled Arabic women in Denmark found that muscle strength returned to normal (except in maximal voluntary con-traction) after six months' treatment. We expected to see this disease in female asylum seekers, especially in those from societies with different customs regarding exposure to sunlight and diet We report 11 cases of symptomatic hypovitaminosis D3 in female asylum seekers (table 1). We focus on the pathology encountered by the primary care doctors caring for these 11 patients, the length of time between the appearance of symptoms, and the establishment of the diagnosis of hypovitaminosis D3 as well as the women's response to treatment by the improvement of a wide range of clinical symptoms-bone pain, muscular weakness, and fatigue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. La détresse psychique touche entre 30 et 50% des patients atteints de cancer (1-5). Les troubles psychiatriques les plus fréquemment observés sont les états dépressifs et les troubles anxieux et d'adaptation (1). En ce qui concerne les approches psychodynamiques auprès de patients atteints de cancer, il manque des études évaluant l'effet de ces thérapies. L'objectif de ce travail de master est d'investiguer une intervention psychothérapeutique d'inspiration psychodynamique effectuée auprès de patients nouvellement diagnostiqués de cancer. Méthode. Basée sur la lecture de 20 rapports, une grille de lecture des thématiques abordées dans les interventions a été élaborée puis discutée en deux focus groups entre trois chercheurs. Pour l'analyse semi-quantitative, deux de ces chercheurs ont appliqué la grille d'analyse à tous les rapports (N=135) et ont ensuite confronté et discuté leurs classifications jusqu'à l'obtention d'un consensus. Résultats. Une liste de vingt thématiques classées dans deux catégories a été élaborée: 1) témoignage/demande de soutien et 2) introspection avec les sous-catégories 2.1) changement de fonctionnement psychologique et 2.2) modification du positionnement relationnel. La moitié (50,4%) des patients ont consulté pour témoigner ou demander un soutien, 27,4% pour un changement de fonctionnement psychologique et 9,6% pour une modification du positionnement relationnel; 12,6% des patients n'ont pas pu être classifiés. En général, les patients consultant pour témoigner ou demander un soutien sont légèrement plus âgés et présentent un stade de maladie plus avancé, et consultent en moyenne durant 4 à 5 séances. Les patients qui visent un changement de fonctionnement psychologique suivent une tendance inverse et consultent en moyenne durant 11 à 12 séances; ceux qui désirent une modification de leur positionnement relationel sont également légèrement plus jeunes, avec un stade de maladie moins avancé, mais leur nombre de séances effectuées est très variable. Lorsque les patients effectuent un travail sur soi ou sur leurs relations, les sujets abordés ne sont que rarement centrés sur le cancer. Par contre, chez des patients qui consultent pour témoigner ou être soutenus, les angoisses liées au cancer sont plus souvent au coeur de l'intervention thérapeutique. Discussion. Les rapports de psychothérapie de patients atteints de cancer rédigés dans le cadre d'une étude sont sujets à la subjectivité des thérapeutes et à leurs interprétations quant au processus thérapeutique. Et il en va de même pour l'analyse que les chercheurs en font. Néanmoins, les résultats montrent qu'une grande variété de thématiques sont abordées durant les thérapies et que "l'évènement cancer" n'est pas toujours au centre des entretiens; avec certains patients les thérapeutes entament un travail plus conséquent en ce qui concerne sa durée et son contenu; travail qui va au-delà de "l'évènementiel". Les patients des différentes catégories identifiées se distinguent clairement quant à leur désir d'approfondir un travail thérapeutique, quant aux objectifs qu'ils souhaitent atteindre et quant au type d'intervention psychothérapeutique dont ils ont besoin. Conclusion. Les approches psychothérapeutiques pour les patients atteints de cancer demandent du thérapeute une grande souplesse, afin de s'adapter à la demande et aux capacités d'élaboration des patients. Une clarification rapide de ces deux paramètres dans les premières séances devrait faire partie intégrante de la prise en charge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mousse haplobiontique Physcomitrella patens est utilisée comme système génétique modèle pour l'étude du développement des plantes. Cependant, l'absence d'un protocole efficace de transformation a constitué jusqu'à présent un gros désavantage méthodologique pour le développement futur de ce système expérimental. Les résultats présentés dans le premier chapitre relatent la mise au point d'un protocole de transformation basé sur la technique de transfert direct de gènes dans des protoplastes par précipitation au PEG. Un essai d'expression transitoire de gènes a été mis au point. Ce protocole a été adapté afin de permettre l'introduction in vivo d'anticorps dans des protoplastes. Le protocole modifié permet d'introduire simultanément du DNA et des IgG dans les cellules, et nous avons démontré que ces anticorps peuvent inactiver spécifiquement le produit d'un gène co-introduit (GUS), ainsi que certaines protéines impliquées dans des processus cellulaires (tubuline). Cet essai, baptisé "essai transitoire d'immuno-inactivation in vivo", devrait être directement applicable à d'autres protoplastes végétaux, et permettre l'élaboration de nouvelles stratégies dans l'étude de processus cellulaires. Le second chapitre est consacré aux expériences de transformation de la mousse avec des gènes conférant une résistance à des antibiotiques. Nos résultats démontrent que l'intégration de gènes de résistance dans le génome de P. patens est possible, mais que cet événement est rare. Il s'agit là néanmoins de la première démonstration d'une transformation génétique réussie de cet organisme. L'introduction de gènes de résistance aux antibiotiques dans les protoplastes de P. patens génère à haute fréquence des clones résistants instables. Deux classes de clones instables ont été identifiés. La caractérisation phénotypique, génétique et moléculaire de ces clones suggère fortement que les séquences transformantes sont concaténées pour former des structures de haut poids moléculaire, et que ces structures sont efficacement répliquées et maintenues dans les cellules résistantes en tant qu'éléments génétiques extrachromosomaux. Ce type de transformation nous permet d'envisager des expériences permettant l'identification des séquences génomiques impliquées dans la replication de l'ADN de mousse. Plusieurs lignées transgéniques ont été retransformées avec des plasmides portant des séquences homologues aux séquences intégrées dans le génome, mais conférant une résistance à un autre antibiotique. Les résultats présentés dans le troisième chapitre montrent que les fréquences de transformation intégrative dans les lignées transgéniques sont 10 fois plus élevées que dans la lignée sauvage, et que cette augmentation est associée à une coségrégation des gènes de résistance dans la plupart des clones testés. Ces résultats génétiques indiquent que l'intégration de séquences d'ADN étranger dans le génome de P. patens a lieu en moyenne 10 fois plus fréquemment par recombinaison homologue que par intégration aléatoire. Ce rapport homologue/aléatoire est 10000 fois supérieur aux rapports obtenus avec d'autres plantes, et fournit l'outil indispensable à la réalisation d'expériences de génétique inverse dans cet organisme à haplophase dominante. THESIS SUMMARY The moss Physcomitrella patens is used as a model genetic system to study plant development, taking advantage of the fact that the haploid gametophyte dominates in its life cycle. But further development of this model system was hampered by the lack of a protocol allowing the genetic transformation of this plant. We have developed a transformation protocol based on PEG-mediated direct gene transfer to protoplasts. Our data demonstrate that this procedure leads to the establishment of an efficient transient gene expression assay. A slightly modified protocol has been developed allowing the in vivo introduction of antibodies in moss protoplasts. Both DNA and IgGs can be loaded simultaneously, and specific antibodies can immunodeplete the product of an expression cassette (GUS) as well as proteins involved in cellular processes (tubulins). This assay, named transient in vivo immunodepletion assay, should be applicable to other plant protoplasts, and offers new approaches to study cellular processes. Transformations have been performed with bacterial plasmids carrying antibiotic resistance expression cassette. Our data demonstrate that integrative transformation occurs, but at low frequencies. This is the first demonstration of a successful genetic transformation of mosses. Resistant unstable colonies are recovered at high frequencies following transformation, and two different classes of unstable clones have been identified. Phenotypical, genetic and molecular characterisation of these clones strongly suggests that bacterial plasmids are concatenated to form high molecular arrays which are efficiently replicated and maintained as extrachromosomal elements in the resistant cells. Replicative transformation in P. patens should allow the design of experiments aimed at the identification of genomic sequences involved in moss DNA replication. Transgenic strains have been retransformed with bacterial plasmids carrying sequences homologous to the integrated transloci, but conferring resistance to another antibiotic. Our results demonstrate an order of magnitude increase of integrative transformation frequencies in transgenic strains as compared to wild-type, associated with cosegregation of the resistance genes in most of these double resistant transgenic strains. These observations provide strong genetic evidence that gene targeting occurs about ten times more often than random integration in the genome of P. patens. Such ratio of targeted to random integration is about 10 000 times higher than previous reports of gene targeting in plants, and provides the essential requirement for the development of efficient reverse genetics in the haplodiplobiontic P. patens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Exposer une nouvelle technique permettant le retrait de ciment extra-vertebral par fuite accidentelle lors du retrait du matériel. Matériels et méthodes: Nous injectons le ciment lorsque sa densité est celle d'une pâte dentifrice pour éviter les passages vasculaires. Lorsque la vertèbre est parfaitement remplie,nous patientons quelques minutes pour éviter la fuite de ciment le long du trajet (environ 4 a 6 cc en moyenne par vertèbre sont injectés). Malgré ces précautions,une fuite de ciment peut survenir lors du retrait du trocart. Cette complication est rare lorsque l'on prend les précautions nécessaires. Cependant, si la pressionintra-vertébrale est importante, le ciment peut être aspiré en dehors de la vertèbre. Résultats: L'aiguille du trocart est retirée pour être remplacée par une pince d'endoscopie 13 gauges. Sous guidage scopique, l'extraction se fait sous contrôle continu ; lapince retirant la fuite de ciment. Conclusion: La connaissance de cette intervention peut être très utile pour les équipes de radiologie interventionnelle , d'orthopédie et de neurochirurgie réalisant desvertébroplasties, pouvant être confrontées à ce type de problèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Games are powerful and engaging. On average, one billion people spend at least 1 hour a day playing computer and videogames. This is even more true with the younger generations. Our students have become the < digital natives >, the < gamers >, the < virtual generation >. Research shows that those who are most at risk for failure in the traditional classroom setting, also spend more time than their counterparts, using video games. They might strive, given a different learning environment. Educators have the responsibility to align their teaching style to these younger generation learning styles. However, many academics resist the use of computer-assisted learning that has been "created elsewhere". This can be extrapolated to game-based teaching: even if educational games were more widely authored, their adoption would still be limited to the educators who feel a match between the authored games and their own beliefs and practices. Consequently, game-based teaching would be much more widespread if teachers could develop their own games, or at least customize them. Yet, the development and customization of teaching games are complex and costly. This research uses a design science methodology, leveraging gamification techniques, active and cooperative learning theories, as well as immersive sandbox 3D virtual worlds, to develop a method which allows management instructors to transform any off-the-shelf case study into an engaging collaborative gamified experience. This method is applied to marketing case studies, and uses the sandbox virtual world of Second Life. -- Les jeux sont puissants et motivants, En moyenne, un milliard de personnes passent au moins 1 heure par jour jouer à des jeux vidéo sur ordinateur. Ceci se vérifie encore plus avec les jeunes générations, Nos étudiants sont nés à l'ère du numérique, certains les appellent des < gamers >, d'autres la < génération virtuelle >. Les études montrent que les élèves qui se trouvent en échec scolaire dans les salles de classes traditionnelles, passent aussi plus de temps que leurs homologues à jouer à des jeux vidéo. lls pourraient potentiellement briller, si on leur proposait un autre environnement d'apprentissage. Les enseignants ont la responsabilité d'adapter leur style d'enseignement aux styles d'apprentissage de ces jeunes générations. Toutefois, de nombreux professeurs résistent lorsqu'il s'agit d'utiliser des contenus d'apprentissage assisté par ordinateur, développés par d'autres. Ceci peut être extrapolé à l'enseignement par les jeux : même si un plus grand nombre de jeux éducatifs était créé, leur adoption se limiterait tout de même aux éducateurs qui perçoivent une bonne adéquation entre ces jeux et leurs propres convictions et pratiques. Par conséquent, I'enseignement par les jeux serait bien plus répandu si les enseignants pouvaient développer leurs propres jeux, ou au moins les customiser. Mais le développement de jeux pédagogiques est complexe et coûteux. Cette recherche utilise une méthodologie Design Science pour développer, en s'appuyant sur des techniques de ludification, sur les théories de pédagogie active et d'apprentissage coopératif, ainsi que sur les mondes virtuels immersifs < bac à sable > en 3D, une méthode qui permet aux enseignants et formateurs de management, de transformer n'importe quelle étude de cas, provenant par exemple d'une centrale de cas, en une expérience ludique, collaborative et motivante. Cette méthode est appliquée aux études de cas Marketing dans le monde virtuel de Second Life.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Evaluer la faisabilité, les résultats préliminaires à court et long terme du vissage percutané de vissage trans -isthmique sous anesthésie locale et contrôle scannerdes lyses isthmiques de bas grades.Matériels et méthodes: Etude prospective monocentrique réalisée sur 10 patients ayant une lyse isthmique grade 1 et 2 résistant au traitement médical conventionnel. Une évaluationclinique était réalisée à un mois, 3 mois, 6 mois et un an post-opératoire par un évaluateur indépendant. L'indication est posée en concertation avec le service dechirurgie orthopédique.Résultats: Les lyses isthmiques étaient situées en L5-S1 avec 6 grades 1 et 4 grades 2. L'échelle analogique de la douleur (VAS) variait de 6 a 9 avec une moyenne de 7,8.L'indication opératoire chirurgicale était posée pour tous les patients par arthrodèse postérieure lombo -sacree. Pour chaque patient 2 vis étaient positionnées soitun total de 20 vis. Un suivi clinique était réalisé de 28 a 36 mois. L'EVA et ODI diminuaient de 7,8 +/- 1,7 à 1,9 +/- 1,2 et de 62,3 +/- 17,2 à 15,1 +/- 6,0respectivement. L'ensemble des résultats était stable dans le temps en particulier à long terme.Conclusion: La fixation précise de la lyse isthmique améliore la symptomatologie et probablement évite un glissement vertébral plus important , un suivi à plus long terme surune serie de patients plus importante devrait confirmer cette hypothèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : l .Objectif Evaluer l'effet qu'ont les consignes d'utilisation régulière d'un spray nasal à la nicotine sur leur véritable utilisation durant les 3 premières semaines d'un sevrage tabagique. Un objectif secondaire est d'évaluer l'effet des consignes d'utilisation régulière du spray durant les premières semaines de sevrage tabagique sur le taux de succès à 6 mois par rapport à un groupe pouvant utiliser le spray « ad libitum ». 2. Méthode II s'agit d'une étude ouverte, randomisée contrôlée, incluant 50 patients présentant une dépendance nicotinique forte, se trouvant en phase de préparation selon le modèle transthéorique du changement de Prochaska et Di Clemente, recrutés au sein de la consultation «stop tabac » de la Policlinique Médicale Universitaire de Lausanne. Dans le groupe «contrôle », les patients ont été instruits à utiliser le spray « ad libitum », soit dès qu'apparaissaient des envies irrésistibles de fumer, tandis que le groupe «intervention » a reçu pour consigne d'utiliser le spray au moins 1 fois par heure dès le lever, voire plus en cas d'envie de fumer. L'utilisation du spray nasal a été enregistrée par un dispositif électronique fixé sur le spray (MDILogTM) durant les 3 premières semaines d'utilisation. Durant le suivi, l'abstinence tabagique a été vérifiée par une mesure du taux de CO expiré par un appareil spécifique (Bedfont Smokerlyzer). L'abstinence tabagique a été considérée comme un succès si le taux de CO était s 10 ppm (particules par million). 3. Résultats Un patient a été perdu durant le suivi. Au moment de la randomisation, le groupe «intervention » comprenait plus de femmes, des patients ayant un nombre plus grand de précédentes tentatives d'arrêt du tabagisme, plus de co-morbidités psychiatriques, mais moins de co-morbidités somatiques que le groupe «contrôle ». Dans les 2 groupes, les participants ont utilisé le spray nasal plus de 8 fois par jour (minimum demandé dans le groupe intervention). L'utilisation moyenne du spray était de 13,6 doses/jour pour le groupe «intervention » et de 1 l,l doses/jour pour le groupe contrôle. Ajusté aux différences entre les 2 groupes, la différence entre les doses plus importantes utilisées dans le groupe «intervention »par rapport à celles du groupe « ad libitum »reste non significative durant la première (0.8 ; CI 95% -5.1 ; 6,7), la deuxième (4.0 ; CI 95% -1.9 ; 9.9) et la troisième semaine (3.0 ; CI 95% -2.5 ; 8.5). De même, le fait d'instruire le patient à utiliser chaque heure le spray nasal durant les premières semaines n'a pas eu d'impact sur le taux de succès à 6 mois (RR = 0.69 ; CI 95% 0.34 ; 1.39). 4. Conclusions Cette étude négative montre que les différences d'utilisation du spray nasal nicotinique sont plus dépendantes des caractéristiques individuelles du patient que des recommandations d'utilisation du thérapeute. Les patients présentant un syndrome de dépendance à la nicotine forte utilisent spontanément de manière importante le spray nasal nicotinique, indépendamment des recommandations données. Pour les patients présentant un syndrome de dépendance à la nicotine forte, les recommandations par le thérapeute d'utiliser le spray nasal dès l'apparition d'envies de fumer semblent être la manière de faire la plus adéquate.