279 resultados para lições


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : la Sclérose en plaques (SEP) est le prototype de désordre auto-immun du système nerveux central. Avec environ 110 malades par 100'000 habitants, la Suisse est considérée un pays à haute prévalence. Chez environ 80% des patients, la maladie débute par la forme récurrente- rémittente (RR), où des poussées aiguës s'intercalent avec des périodes de rémission. Cette phase se conclut dans son évolution naturelle généralement en une phase secondairement progressive, pendant laquelle le déficit progresse en l'absence de poussée. Sur le plan physiopathologique, deux phénomènes interagissent : l'atteinte inflammatoire démyélinisante et l'atteinte neurodégénerative. La première est { l'origine des poussées aiguës, la deuxième se manifeste cliniquement par la progression irréversible du déficit neurologique. En Suisse les immunomodulateurs ont été utilisés comme thérapies de fond pour la SEP à partir des années 1995. Leur effet sur le taux de poussées a été largement démontré, tandis que leur efficacité sur l'évolution de la maladie à long terme reste ouverte. Le moyen le plus répandu pour quantifier le niveau du handicap neurologique est la Kurtzke Expanded Disability Status Scale (EDSS). Cette échelle évalue les troubles neurologiques en les classifiant de 0 (examen normal) à 10 (décès) avec des marches de demi-points. Notre recherche à voulu identifier des facteurs cliniques précoces { valeur prédictif sur l'évolution du déficit neurologique permanent, ainsi qu'analyser le moment d'introduction du traitement pour extraire des informations utiles { la décision thérapeutique. Méthodes : Exploitation de la base de données iMed-CHUV comptant 1150 patients SEP (dont 622 SEP RR) pour analyser rétrospectivement, dans la SEP RR, l'influence de différentes variables cliniques précoces (taux de poussées pendant les premières deux années de maladie, intervalle entre les deux premières poussées, sévérité et site anatomique de la première poussée, déficit résiduel après la première poussée) et de deux caractéristiques liées { l'instauration du traitement immunosuppresseur de fond (âge et délai d'introduction) sur l'évolution du déficit neurologique vers un score EDSS ≥4.0. Les variables ont été testées avec la méthode d'estimation de taux de survie Kaplan-Meier. Résultats: 349 patients avec SEP RR possédaient les critères nécessaires pour faire partie de l'analyse, le suivi moyen étant de 8.26 ans (SD 4.77). Un taux de poussées élevé pendant les premiers 2 ans (>1 vs ≤1) et un long intervalle entre les 2 premiers épisodes (>36 vs >12-36 vs ≤12) étaient significativement associés au risque de progression du déficit neurologique vers un score EDSS de 4.0 ou plus (log Rank P=0.016 et P=0.008 respectivement). Par contre ni le site anatomique de la première poussée ni l'âge d'introduction du traitement immunomodulateur n'avaient d'influence significative sur la progression du déficit neurologique (log rank P=0.370 et P=0.945 respectivement). Etonnamment une introduction rapide du traitement était associée à une plus forte progression du déficit neurologique (log rank P=0.032), montrant qu'une partie des patients a une évolution bénigne même en l'absence de traitement. Conclusions : L'activité inflammatoire précoce, dont le niveau peut être estimé par indices précoces comme le taux de poussées et l'intervalle entre les deux premières poussées, mais non le site de primo-manifestation prédit la progression ultérieure du déficit neurologique. Ces indices doivent être utilisés en combinaison avec les informations fournies par l'IRM pour l'individuation et le traitement précoce des patients à risque, indépendamment de leur âge. En raison des effets indésirables et des coûts élevés, les thérapies doivent cibler de façon spécifique les classes à risque, et épargner les patients avec évolution lente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Reconnaissons-le comme un fait, soulignait François Hollande lors du lancement des commémorations du centenaire en novembre 2013, lorsque la mobilisation générale fut proclamée, il n'y eut plus qu'un seul pays, une seule Nation, une seule armée ». A l'heure où les commémorations officielles du premier conflit mondial battent leur plein, il est plus que jamais impossible de s'abstraire du rapport dialectique qui s'instaure entre « usages publics et politiques de l'histoire » et construction de l'histoire savante. Aujourd'hui, le monde ouvrier, les vaincus, semblent ainsi être invoqués pour souligner substantiellement leur « adhésion » substantielle à « leur » nation en guerre. Les mondes et les mouvements ouvriers, dans toute leur complexité sociale et politique s'estompent de la recherche historique comme ont disparu ou presque les questions liées aux rapports de force sociopolitiques. Cette contribution se propose de revenir sur l'un des noeuds historiographiques concernant les socialismes en guerre, soit celui de leur « entrée » dans le conflit. Il s'agit de comprendre comment « la guerre fait irruption » dans les débats du socialisme international, en envisageant les divers positionnements par rapport au "choix" de l'intervention, notamment la question du "revirement" d'une social-démocratie hostile à la guerre qui entre néanmoins en guerre en usant parfois d'une rhétorique patriotique voire nationaliste. Pour ce faire, deux cas d'études ont été choisis partant de deux réalités sociopolitiques différentes qui, chacune à leur manière, offrent une palette des manières qu'a eues la socialdémocratie de se positionner face à la guerre. D'un côté, l'« exception » italienne, de l'autre le « revirement » patriotique français. En point de mire : comprendre si et dans quelle mesure la guerre constitue un tournant, une rupture dans l'histoire des sociétés considérées, et quelles en sont les limites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméCette thèse traite d'un domaine d'application de l'écologie industrielle, les symbioses industrielles, comme stratégie d'amélioration de la consommation des ressources matérielles et énergétiques et de la gestion des déchets par les activités économiques. Les symbioses industrielles cherchent à créer de nouvelles collaborations directement entre les acteurs économiques d'un territoire dans le but d'échanger de l'information, des matières premières et des déchets, et d'intensifier les mutualisations de services et d'infrastructures possibles entre entreprises voisines. Ces quatre types de collaboration sont représentés schématiquement dans la figure ci-dessous.Dans ce travail, la détection et la mise en oeuvre de symbioses industrielles sont abordées sous plusieurs angles. Les recherches réalisées concernent le développement de procédures de mise en oeuvre s'adressant aux collectivités publiques, aux institutions académiques et aux bureaux de conseil dans le domaine de l'environnement. Les objectifs des procédures sont de créer une dynamique de collaboration et de confiance entre les acteurs économiques et l'administration publique d'un territoire afin de détecter des symbioses industrielles potentielles. Ces procédures requièrent la gestion de grandes quantités d'informations relatives aux flux de matière et d'énergie.Un travail de terrain, réalisé sur les territoires du canton de Genève et de Lausanne Région et utilisé comme études de cas, a permis de mettre en évidence un grand nombre de symbioses industrielles qui existent déjà en Suisse romande. Plusieurs dizaines d'exemples ont été identifiés principalement dans lesdomaines de la gestion de l'eau, de l'énergie, des produits chimiques et des matériaux de construction. La législation suisse autoriserait cependant la concrétisation de nombreuses autres opportunités. Dans cette recherche, celles-ci sont évaluées techniquement, légalement, économiquement et environnementalement. La création d'un référentiel d'évaluation des opportunités permet de déterminer quelles sont les symbioses industrielles techniquement réalisables et pertinentes dans le contexte suisse et dans quels cas celles-ci représenteraient une réelle plus-value par rapport à l'utilisation actuelle de la ressource et aux filières existantes de collecte et de valorisation des déchets.Finalement, un logiciel, SymbioGIS, destiné à soutenir la détection et l'évaluation de symbioses industrielles potentielles a été développé. Il s'agit d'une interface web accessible pour de nombreux utilisateurs, couplée à une interface de systèmes d'information géographique. En plus de la détection de symbioses industrielles, plusieurs fonctionnalités sont proposées pour faciliter la prise en compte des flux de matière et d'énergie dans les problématiques liées à l'aménagement du territoire et au positionnement des activités économiques.En conclusion, cette recherche met en évidence la nécessité de rapprocher les institutions publiques en charge de la protection de l'environnement, de la promotion économique et de l'aménagement du territoire pour favoriser l'essor des symbioses industrielles comme stratégie pour la gestion des ressources matérielles et énergétiques. Elle propose des pistes pour intensifier les collaborations entre ces domaines et accélérer le partage des connaissances liées aux flux de matière et d'énergie et à leur cheminement au sein des activités économiques afin de rendre le système industriel existant en Suisse romande viable à long terme. Parallèlement, elle étudie les possibilités de transposer ces considérations et les procédures et outils développés dans le contexte économique et social de la région Asie-Pacifique, où se trouvent aujourd'hui de nombreuses activités de production.SummaryIndustrial symbioses: A new strategy for improving how economic activities use material and energy resourcesThis thesis focuses on one application of industrial ecology, industrial symbioses, as a strategy for improving how economic activities consume material and energy resources. Industrial symbioses seek to create new collaborations among economic players with the goal of exchanging information, raw materials, and waste directly among area businesses, and to step up the potential pooling of services and infrastructure among neighboring companies.The identification and implementation of industrial symbioses are studied from several angles. The research first examines the development of implementation procedures for government bodies, academic institutions, and environmental consulting services. The purpose of the procedures is to create a dynamic of collaboration and trust between the economic players and the public officials in a region in order to identify potential industrial symbioses. The procedures necessitate managing large amounts of information about material and energy flows.Fieldwork conducted in the canton of Geneva and the Lausanne region, and used as case studies for the research, highlights a great number of industrial symbioses that already exist in French-speaking Switzerland. Several dozen examples are identified, primarily in the areas of water management, energy, chemical products, and building materials; however, Swiss law would permit many others. The research evaluates these opportunities from a technical, legal, economic, and environmental standpoint. By developing an assessment framework it is possible to determine which industrial symbioses are technically feasible and pertinent in Switzerland, and under what circumstances they would represent real added value compared to the current use of the resource and to existing systems for collecting and reusing waste.Lastly, SymbioGIS software was developed to help identify and assess potential industrial symbioses. The program's Web-based interface can be accessed by multiple users and is coupled with an interface that provides geographic information. In addition to identifying industrial symbioses, several program functionalities make it easier to consider material and energy flows with regard to local development issues and siting economic activities.In conclusion, the research highlights the need to bring together public institutions charged with protecting the environment, promoting economic activity, and overseeing development in order to foster the expansion of industrial symbioses as a strategy for managing material and energy resources. It proposes solutions for stepping up collaboration among these players and accelerating the sharing of knowledge about material and energy flows and their paths within economic activities with the goal of making theexisting industrial system in French-speaking Switzerland viable long-term. Also examined were thepossibilities of transposing these considerations and the study's findings about Switzerland to the economic and social context of the Asia-Pacific region, where much production is now located.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les syndromes démentiels évoluent sur plusieurs années et touchent la personne dans sa globalité, altérant ses fonctions cognitives, son comportement et ses capacités relationnelles. Le patient perd peu à peu son indépendance. Les proches vont alors jouer un rôle essentiel auprès de lui et devront s'adapter à l'évolution de ses besoins, assumant progressivement surveillance, guidance et aide concrète. L'inestimable contribution des familles et les difficultés liées à l'exercice de ce rôle sont encore trop peu reconnues. De nombreuses études décrivent les conséquences négatives de l'aide naturelle. Toutefois les données sont moins riches quant aux déterminants de ces conséquences. Les proches ont souvent besoin d'information, de conseil et de soutien psychologique. Les programmes psychoéducatifs sont une des possibilités d'aide auprès de l'entourage de patients déments. Dementing disorders usually evolve over several years and alter cognitive performances, behavior and social abilities. Progressively, the patients lose their independence. Families will play a key role for the demented patient and have to adapt to the evolution of his or her needs. They will have to watch over, guide and help the demented proxy. The families' invaluable contribution and the numerous difficulties they encounter while they care for their demented proxy are insufficiently recognized. The deleterious consequences on the carers are currently better known than the determinants of these consequences. Families often need information, counselling and psychological support. Psycho-educational programs represent one of the possible strategies to help families and carers of patients with dementia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé En Suisse, les programmes de désaccoutumance au tabac se réfèrent généralement au modèle de préparation au changement de Prochaska et DiClemente (1983), Les patients atteints de maladies somatiques liées au tabagisme comme les pathologies cardiovasculaires ou pulmonaires accèdent facilement à ces programmes, contrairement aux patients présentant une dépendance à des drogues illicites. La prévalence de fumeurs dans cette population est pourtant élevée et les problèmes engendrés par le tabac sont importants, non seulement d'un point de vue individuel mais aussi en terme de santé publique. Il est par conséquent intéressant d'évaluer la motivation concernant la désaccoutumance au tabac de patients toxicomanes entreprenant un sevrage de drogues illicites. Dans cette étude, nous avons évalué les stades de préparation au changement concernant la dépendance au tabac chez 100 patients toxicomanes hospitalisés sur un mode volontaire dans le cadre d'un programme de sevrage à des drogues illégales. L'évaluation s'est faite à l'aide d'un auto-questionnaire dont les résultats indiquent qu'une minorité de patients sont décidés à interrompre la consommation de tabac. En effet, seul 15% des patients se trouvaient aux stades de contemplation ou de décision. De plus, 93% des sujets considéraient l'arrêt du tabac comme difficile ou très difficile. Ces données montrent qu'il existe un décalage important entre la motivation relative au sevrage de drogues illégales et la motivation liées à l'arrêt du tabac. En effet, malgré leur motivation élevée pour se sevrer de drogues illicites, la proportion de patients restant au stade de précontemplation concernant la désaccoutumance au tabac reste élevée. Diverses hypothèses permettent d'expliquer ces résultats, notamment la perception que la désaccoutumance au tabac est plus difficile à réaliser que le sevrage de substances illicites. Abstract Nicotine cessation programmes in Switzerland, which are commonly based on the stage of change model of Prochaska and DiClemente (1983), are rarely offered to patients with illicit drug dependence. This stands in contrast to the high smoking rates and the heavy burden of tobacco-related problems in these patients. The stage of change was therefore assessed by self-administered questionnaire in 100 inpatients attending an illegal drug withdrawal programme. Only 15% of the patients were in the contemplation or decision stage. 93% considered smoking cessation to be difficult or very difficult. These data show a discrepancy between the motivation to change illegal drug consumption habits and the motivation for smoking cessation. The high pro-portion of patients remaining in the precontemplation stage for smoking cessation, in spite of their motivation for illicit drug detoxification, may be due to the perception that cessation of smoking is more difficult than illicit drug abuse cessation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The thesis at hand is concerned with the spatio-temporal brain mechanisms of visual food perception as investigated by electrical neuroimaging. Due to the increasing prevalence of obesity and its associated challenges for public health care, there is a need to better understand behavioral and brain processes underlying food perception and food-based decision-making. The first study (Study A) of this thesis was concerned with the role of repeated exposure to visual food cues. In our everyday lives we constantly and repeatedly encounter food and these exposures influence our food choices and preferences. In Study A, we therefore applied electrical neuroimaging analyses of visual evoked potentials to investigate the spatio-temporal brain dynamics linked to the repeated viewing of high- and low-energy food cues (published manuscript: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). In this study, we found that repetitions differentially affect behavioral and brain mechanisms when high-energy, as opposed to low-energy foods and non-food control objects, were viewed. The representation of high-energy food remained invariant between initial and repeated exposures indicating that the sight of high-energy dense food induces less behavioral and neural adaptation than the sight of low-energy food and non-food control objects. We discuss this finding in the context of the higher salience (due to greater motivation and higher reward or hedonic valuation) of energy- dense food that likely generates a more mnemonically stable representation. In turn, this more invariant representation of energy-dense food is supposed to (partially) explain why these foods are over-consumed despite of detrimental health consequences. In Study Β we investigated food responsiveness in patients who had undergone Roux-en-Y gastric bypass surgery to overcome excessive obesity. This type of gastric bypass surgery is not only known to alter food appreciation, but also the secretion patterns of adipokines and gut peptides. Study Β aimed at a comprehensive and interdisciplinary investigation of differences along the gut-brain axis in bypass-operated patients as opposed to weight-matched non-operated controls. On the one hand, the spatio-temporal brain dynamics to the visual perception of high- vs. low-energy foods under differing states of motivation towards food intake (i.e. pre- and post-prandial) were assessed and compared between groups. On the other hand, peripheral gut hormone measures were taken in pre- and post-prandial nutrition state and compared between groups. In order to evaluate alterations in the responsiveness along the gut-brain-axis related to gastric bypass surgery, correlations between both measures were compared between both participant groups. The results revealed that Roux-en- Y gastric bypass surgery alters the spatio-temporal brain dynamics to the perception of high- and low-energy food cues, as well as the responsiveness along the gut-brain-axis. The potential role of these response alterations is discussed in relation to previously observed changes in physiological factors and food intake behavior post-Roux-en-Y gastric bypass surgery. By doing so, we highlight potential behavioral, neural and endocrine (i.e. gut hormone) targets for the future development of intervention strategies for deviant eating behavior and obesity. Together, the studies showed that the visual representation of foods in the brain is plastic and that modulations in neural activity are already noted at early stages of visual processing. Different factors of influence such as a repeated exposure, Roux-en-Y gastric bypass surgery, motivation (nutrition state), as well as the energy density of the visually perceived food were identified. En raison de la prévalence croissante de l'obésité et du défi que cela représente en matière de santé publique, une meilleure compréhension des processus comportementaux et cérébraux liés à la nourriture sont nécessaires. En particulier, cette thèse se concentre sur l'investigation des mécanismes cérébraux spatio-temporels liés à la perception visuelle de la nourriture. Nous sommes quotidiennement et répétitivement exposés à des images de nourriture. Ces expositions répétées influencent nos choix, ainsi que nos préférences alimentaires. La première étude (Study A) de cette thèse investigue donc l'impact de ces exposition répétée à des stimuli visuels de nourriture. En particulier, nous avons comparé la dynamique spatio-temporelle de l'activité cérébrale induite par une exposition répétée à des images de nourriture de haute densité et de basse densité énergétique. (Manuscrit publié: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). Dans cette étude, nous avons pu constater qu'une exposition répétée à des images représentant de la nourriture de haute densité énergétique, par opposition à de la nourriture de basse densité énergétique, affecte les mécanismes comportementaux et cérébraux de manière différente. En particulier, la représentation neurale des images de nourriture de haute densité énergétique est similaire lors de l'exposition initiale que lors de l'exposition répétée. Ceci indique que la perception d'images de nourriture de haute densité énergétique induit des adaptations comportementales et neurales de moindre ampleur par rapport à la perception d'images de nourriture de basse densité énergétique ou à la perception d'une « catégorie contrôle » d'objets qui ne sont pas de la nourriture. Notre discussion est orientée sur les notions prépondérantes de récompense et de motivation qui sont associées à la nourriture de haute densité énergétique. Nous suggérons que la nourriture de haute densité énergétique génère une représentation mémorielle plus stable et que ce mécanisme pourrait (partiellement) être sous-jacent au fait que la nourriture de haute densité énergétique soit préférentiellement consommée. Dans la deuxième étude (Study Β) menée au cours de cette thèse, nous nous sommes intéressés aux mécanismes de perception de la nourriture chez des patients ayant subi un bypass gastrique Roux- en-Y, afin de réussir à perdre du poids et améliorer leur santé. Ce type de chirurgie est connu pour altérer la perception de la nourriture et le comportement alimentaire, mais également la sécrétion d'adipokines et de peptides gastriques. Dans une approche interdisciplinaire et globale, cette deuxième étude investigue donc les différences entre les patients opérés et des individus « contrôles » de poids similaire au niveau des interactions entre leur activité cérébrale et les mesures de leurs hormones gastriques. D'un côté, nous avons investigué la dynamique spatio-temporelle cérébrale de la perception visuelle de nourriture de haute et de basse densité énergétique dans deux états physiologiques différent (pre- et post-prandial). Et de l'autre, nous avons également investigué les mesures physiologiques des hormones gastriques. Ensuite, afin d'évaluer les altérations liées à l'intervention chirurgicale au niveau des interactions entre la réponse cérébrale et la sécrétion d'hormone, des corrélations entre ces deux mesures ont été comparées entre les deux groupes. Les résultats révèlent que l'intervention chirurgicale du bypass gastrique Roux-en-Y altère la dynamique spatio-temporelle de la perception visuelle de la nourriture de haute et de basse densité énergétique, ainsi que les interactions entre cette dernière et les mesures périphériques des hormones gastriques. Nous discutons le rôle potentiel de ces altérations en relation avec les modulations des facteurs physiologiques et les changements du comportement alimentaire préalablement déjà démontrés. De cette manière, nous identifions des cibles potentielles pour le développement de stratégies d'intervention future, au niveau comportemental, cérébral et endocrinien (hormones gastriques) en ce qui concerne les déviances du comportement alimentaire, dont l'obésité. Nos deux études réunies démontrent que la représentation visuelle de la nourriture dans le cerveau est plastique et que des modulations de l'activité neurale apparaissent déjà à un stade très précoce des mécanismes de perception visuelle. Différents facteurs d'influence comme une exposition repetee, le bypass gastrique Roux-en-Y, la motivation (état nutritionnel), ainsi que la densité énergétique de la nourriture qui est perçue ont pu être identifiés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Bien que les propriétés physiques de la structure de l'ADN aient été intensivement étudiées pendant plus de 50 ans il y a encore beaucoup de questions importantes qui attendent des réponses. Par exemple, qu'arrive-t-il à la structure de la double hélice d'ADN nue (sans protéines liées) lorsqu'elle est fortement courbée, de la même manière que dans les nucléosomes? Cet ADN nu est-il facilement plié (il reste dans le régime élastique) ou réduit-il la contrainte de flexion en formant des sites hyperflexibles «kinks» (il sort du régime élastique en cassant l'empilement des paires de bases à certains endroits) ? La microscopie électronique peut fournir une réponse à cette question par visualisation directe des minicercles d'ADN de la longueur d'un tour de nucléosome (environ 90 paires de bases). Pour que la réponse soit scientifiquement valide, on doit observer les molécules d'ADN lorsqu'elles sont en suspension dans la solution d'intérêt et sans que des colorations, produits chimiques ou fixatifs n'aient été ajoutés, étant donné que ceux-ci peuvent changer les propriétés de l'ADN. La technique de la cryo-microscopie électronique (cryo-EM) développée par le groupe de Jacques Dubochet au début des années 80, permet la visualisation directe des molécules d'ADN suspendues dans des couche minces vitrifiées de solutions aqueuses. Toutefois, le faible contraste qui caractérise la cryo-EM combinée avec la très petite taille des minicercles d'ADN rendent nécessaire l'optimisation de plusieurs étapes, aussi bien dans la préparation des échantillons que dans le processus d'acquisition d'images afin d'obtenir deux clichés stéréo qui permettent la reconstruction 3-D des minicercles d'ADN. Dans la première partie de ma thèse, je décris l'optimisation de certains paramètres pour la cryoEM et des processus d'acquisition d'image utilisant comme objets de test des plasmides et d'autres molécules d'ADN. Dans la deuxième partie, je .décris comment j'ai construit les minicercles d'ADN de 94 bp et comment j'ai introduit des modifications structurelles comme des coupures ou des lacunes. Dans la troisième partie, je décris l'analyse des reconstructions des rninicercles d'ADN. Cette analyse, appuyée par des tests biochimiques, indique fortement que des molécules d'ADN sont capables de former de petites molécules circulaires de 94 bp sans dépasser les limites d'élasticité, indiquant que les minicercles adoptent une forme circulaire régulière où la flexion est redistribuée le long la molécule. ABSTRACT : Although physical properties of DNA structure have been intensively studied for over 50 years there are still many important questions that need to be answered. For example, what happens to protein-free double-stranded DNA when it is strongly bent, as in DNA forming nucleosomes? Is such protein-free DNA smoothly bent (i.e. it remains within elastic limits of DNA rigidity) or does it release its bending stress by forming sharp kinks (i.e. it exits the elastic regime and breaks the stacking between neighbouring base-pairs in localized regions)? Electron microscopy can provide an answer to this question by directly visualizing DNA minicircles that have the size of nucleosome gyres (ca 90 bp). For the answer to be scientifically valid, one needs to observe DNA molecules while they are still suspended in the solution of interest and no staining chemicals or fixatives have been added since these can change the properties of the DNA. CryoEM techniques developed by Jacques Dubochet's group beginning in the 1980's permit direct visualization of DNA molecules suspended in cryo-vitrified layers of aqueous solutions. However, a relatively weak contrast of cryo-EM preparations combined with the very small size of the DNA minicircles made it necessary to optimize many of the steps and parameters of the cryo-EM specimen preparation and image acquisition processes in order to obtain stereo-pairs of images that permit the 3-D reconstruction of the observed DNA minicircles. In the first part of my thesis I describe the optimization of the cryo-EM preparation and the image acquisition processes using plasmid size DNA molecules as a test object. In the second part, I describe how I formed the 94 by DNA minicircles and how I introduced structural modifications like nicks or gaps. In the third part, I describe the cryo-EM analysis of the constructed DNA minicircles. That analysis, supported by biochemical tests, strongly indicates that DNA minicircles as small as 94 by remain within the elastic limits of DNA structure, i.e. the minicircles adopt a regular circular shape where bending is redistributed along the molecules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comment l'analyse chimique des produits contrefaits peut-elle contribuer à mieux comprendre le phénomène de la contrefaçon?Pour appréhender cette question, une approche novatrice basée sur l'analyse par SPME GC-MS des composés volatils de trente-neuf bracelets parfumés présents sur des contrefaçons horlogères a été mise en oeuvre.La détection de plusieurs dizaines de composés par montre a permis de définir des profils chimiques discriminants. Au total, trois groupes de montres possédant des profils comparables ont été détectés. Ces groupes ont été mis en perspective de liens physiques détectés sur la base du marquage des bracelets (marques et logos) par la fédération de l'industrie horlogère suisse (FH) et des informations spatiotemporelles des saisies. Les montres provenant d'une même saisie présentent systématiquement des liens physiques, mais pas forcément des profils chimiques similaires. Il en ressort que les profils chimiques peuvent fournir une information complémentaire à l'analyse des marquages, qu'ils varient peu dans le temps et que des montres liées chimiquement sont retrouvées dans le monde entier. Cette étude exploratoire révèle ainsi le potentielle d'exploitation de techniques d'analyse complémentaires pour mieux comprendre les modes de production, voire de diffusion de la contrefaçon. Finalement, la méthode analytique a permis de détecter des composés de plastiques en sus des constituants de parfums. Ce résultat laisse entrevoir la possibilité d'exploiterla méthode pour une large gamme de produits contrefaits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The relationship between coffee drinking and the risk of digestive tract neoplasms was analyzed in a case-control study of 50 cases of cancer of the mouth or pharynx, 209 of the esophagus, 397 of the stomach, 455 of the colon, 295 of the rectum, 151 of the liver, 214 of the pancreas, and 1944 control subjects admitted for acute, non-digestive tract disorders. There was no significant or consistent association between coffee and cancers of the mouth or pharynx, esophagus, stomach, liver, or pancreas. In particular, for pancreatic cancer, the multivariate relative risks for the intermediate and upper tertiles were 1.05 and 1.01, respectively. There were significant inverse trends in risk with measures of coffee consumption for colon and rectal cancers, the multivariate relative risks according to tertiles of coffee consumption being 0.86 and 0.64 for colon and 0.97 and 0.66 for rectum. This apparent protection is in agreement with some (but not all) previous epidemiological evidence and finds a possible biological interpretation in terms of interference on bile secretion, causing reduced bile acid and neutral sterol concentrations in the bowel. In conclusion, the results of this study, the major interest of which lies in the opportunity of drawing up an overall pattern of risk for various digestive neoplasms, offer further reassurance as regards the effects of coffee on digestive tract carcinogenesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméLes sténoses des voies lacrymales sont fréquentes surtout chez les patients âgés et provoquent en général un epiphora avec parfois des dacryocystites aiguës ou chroniques. La dacryocystorhinostomie par voie externe (DCREX) a été la technique de choix pour traiter les sténoses post-canaliculaires au XXe siècle. Avec l'avènement de l'endoscopie nasale, l'abord endonasal est devenu facilement accessible et depuis une dizaine d'années, la dacryocystorhinostomie par voie endonasale (DCREN) est en train de supplanter la DCREX dans la majorité des cas.Le but de ce travail est de déterminer les étiologies des sténoses des voies lacrimales, d'évaluer le taux de succès et les complications de la DCREN et de détailler les gestes associés peropératoires.Cette étude rétrospective porte sur 98 patients ayant subi 104 DCREN entre janvier 1994 et février 2006. 78 patients (53 femmes et 25 hommes) présentant 84 sténoses post- canaliculaires remplissent les critères d'inclusion de l'étude. L'âge moyen est de 59 ans (4 - 89 ans).Les résultats obtenus montrent un taux de succès fonctionnel de 94.9% après une première intervention (59/84 DCREN) et de 63.6% pour les DCREN secondaires qui nous ont été référées après d'autres interventions des voies lacrymales (25/84 DCREN). Le suivi postopératoire est de 36,8 mois (12-77 mois). On dénombre 61 gestes rhino-sinusaux associés à la DCREN. Les complications per- et postopératoires sont rares, essentiellement liées aux drains bicanaliculaires. Une étiologie n'a été retrouvée que dans 28% des cas.En conclusion, la DCREN donne d'excellents résultats et peu de complications. En raison des nombreux avantages par rapport à la voie externe et la possibilité du traitement simultané de la pathologie ORL parfois associée, la DCREN est devenue le traitement de premier choix pour les sténoses postcanaliculaires. Le principal défi, quelque soit le type de DCR, est de poser la bonne indication opératoire et en cas d'échec opératoire savoir méticuleusement analyser ses causes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude visait, chez les médecins romands potentiellement confrontés à des maladies en lien avec le travail (généralistes, internistes, dermatologues, allergologues, pneumologues, ORL, rhumatologues et psychiatres des cantons de Genève, Vaud, Valais, Neuchâtel, Jura, Fribourg et de la partie francophone du canton de Berne), à identifier et à décrire : - leur perception des liens entre la santé et le travail, - leurs pratiques vis à vis des maladies liées au travail incluant les difficultés et obstacles qu'ils rencontraient pour la prise en charge thérapeutique, organisationnelle ou assurantielle de ces maladies, - leurs attentes vis à vis de services que l'IST leur fournit ou pourrait leur fournir. Sur 2570 médecins contactés, 34% ont renvoyé un questionnaire (élaboré à la suite d'entretiens semi-directifs auprès de certains d'entre eux) et 32% ont finalement été inclus dans l'étude (soit 806 médecins). Les médecins inclus sont représentatifs de l'ensemble de la population de l'étude sur 3 critères : âge, canton et spécialité. Les résultats permettent de distinguer 4 profils de médecins : - les médecins généralistes, internistes et rhumatologues, qui sont souvent confrontés aux maladies liées au travail, très actifs dans la prise en charge spécifique de ces maladies (en particulier en ce qui concerne le travail du patient et les démarches auprès des assurances), et très demandeurs de services potentiels de l'IST ; - les allergologues et les pneumologues, qui sont peu confrontés aux maladies liées au travail, mais très actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et très demandeurs de services potentiels de l'IST ; - les dermatologues et les ORL, qui sont peu confrontés aux maladies liées au travail, moins actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et peu demandeurs de services potentiels de l'IST ; - les psychiatres, qui sont souvent confrontés aux maladies liées au travail, peu actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et peu demandeurs de services potentiels de l'IST. En fonction de ces résultats, des actions ciblées vers les différentes spécialistes pourront être mises en place ultérieurement.