999 resultados para Caractéristiques environnementales
Resumo:
L'objectiu d’aquesta fitxa tècnica és la difusió de la metodologia Anàlisi de Cicle de Vida, ACV, com a mètode per avaluar ambientalment l’agricultura ecològica, detectar els punts febles i aportar alternatives. Els estudis d’ACV utilitzen la metodologia proposada per les normatives ISO (ISO-14040, 2006; ISO-14044, 2006). Els estudis previs que l’han aplicat avalen la metodologia, mostrant que l’eina ACV reuneix les característiques d’objectivitat i transparència per a l’estudi de l’impacte ambiental de la producció agrària ecològica. Existeixen, però, aspectes metodològics poc desenvolupats que requeriran de futura recerca i que resumim en aquesta fitxa. Aspectes principalment relacionats amb la necessitat de bases de dades locals per una correcta realització dels inventaris i consens en les metodologies per anàlisis d’impactes relacionats principalment amb l’ús del sòl, biodiversitat i toxicitat.
Resumo:
Objectif : En Suisse, la réadaptation est financée en¦partie par l'assureur qui fixe préalablement à l'admission¦un nombre de jours (durée garantie) qu'il s'engage¦à rembourser. Lorsqu'une durée garantie est trop courte,¦une demande de prolongation est nécessaire, induisant¦des démarches administratives. Les objectifs de cette¦étude étaient a) d'étudier le lien entre durées garanties¦et caractéristiques du patient ; b) d'estimer les coûts¦liés aux demandes de prolongation ; c) d'évaluer¦l'impact de l'introduction d'un modèle d'attribution de¦durée garantie basé sur l'état fonctionnel du patient.¦Méthodes : Les corrélations entre état fonctionnel,¦durée effective et durée garantie ont été testées sur¦208 séjours représentatifs. Des durées garanties fictives¦ont été calculées à partir de la médiane de durée de¦séjour de 2 335 patients, groupés selon leur niveau¦fonctionnel (score des activités de base de la vie quotidienne¦(BAVQ) 0-1 vs 2-4 vs 5-6), puis comparées aux¦durées de séjour effectives et garanties.¦Résultats : L'état fonctionnel du patient n'est pas¦corrélé à la durée garantie, et 69 % des séjours nécessitent¦au moins une demande de prolongation, représentant¦2,6 équivalents temps plein en temps administratif¦projeté sur le canton. L'application du modèle proposé¦réduirait de 28 % les demandes de prolongation, et¦n'augmenterait que marginalement la proportion de¦jours garantis en surplus (11,2 % contre 6,5 % actuellement).¦Conclusion : L'utilisation systématique d'un modèle¦d'attribution de durées garanties basées sur l'état¦fonctionnel du patient permettrait de réduire sensiblement¦les coûts administratifs liés aux demandes de¦prolongation, sans entraîner de risque accru d'une augmentation¦de la durée de séjour.
Resumo:
Cet article présente une étude, commencée en 2007, sur le développement de l'edelweiss dans deux alpages du val Ferret (VS). A moyen terme, cette étude vise à estimer la capacité de résistance à la pâture des moutons de l'espèce et à mieux connaître la dynamique de ses populations dans l'idée d'améliorer sa conservation. L'article présente les deux sites d'études (conditions écologiques, importance des populations d'edelweiss) et s'intéresse principalement à la composition du tapis végétal. Cette première étape est avant tout descriptive mais elle est d'importance primordiale pour pouvoir interpréter les observations de multiplication et de colonisation de l'edelweiss in situ. Des méthodes de l'écologie numérique sont utilisées pour explorer la variabilité de la composition spécifique des parcelles d'étude, subdivisées en groupes homogènes. On cherche ensuite les variables environnementales qui expliquent le mieux la composition floristique des groupes retenus.
Resumo:
La contrefaçon de médicaments est un délit qui n'a cessé d'augmenter ces dernières années. Diff érents spectromètres portables ont été proposés sur le marché afi n de permettre une détection rapide des contrefaçons sur le terrain. Les spectroscopies Raman, Infrarouge et Proche Infrarouge présentent des caractéristiques intéressantes pour l'analyse de médicaments douteux, propriétés qui sont exposées dans cet article. Une comparaison des diff érents instruments portables permet de présenter l'intérêt d'utiliser ces spectromètres pour la détection de contrefaçons.
Resumo:
Cette thèse de doctorat traite de cinq traductions françaises des Tristes et des Pontiques d'Ovide parues depuis le second tiers du XXe siècle : celles d'Emile Ripert (1937), de Jacques André (1968-1977), de Dominique Poirel (1989), de Chantai Labre (1991) et de Marie Darrieussecq (2008).¦Les deux oeuvres latines, recueils de lettres élégiaques écrites à la première personne, semblent proposer une réflexion sur le statut du ego qui désigne leur protagoniste, poète romain exilé par Auguste. En effet, ce « je » peut se percevoir tantôt comme le reflet spontané de la personne du poète, dans la mesure où la visée d'Ovide est explicitement autobiographique, tantôt comme le produit d'une construction littéraire, inspiré d'oeuvres de fiction. Dans la critique des XXe et XXIe siècles, la question de savoir comment s'articule le rapport, dans les poèmes d'exil, entre l'oeuvre écrite et la réalité historique, entre le «je» textuel et le « je » de l'auteur, a donné Heu à des réponses très variées.¦Dans un premier temps, l'objectif de l'analyse est de montrer qu'un débat similaire se dessine dans les traductions de la même période, que chaque traducteur des Tristes et des Pontiques, à travers des choix lexicaux et stylistiques bien particuliers, par le biais de commentaires prenant place dans le paratexte de la traduction, fournit au lecteur une image différente du « je » ovidien.¦La seconde étape se concentre sur le processus d'appropriation qui sous-tend la traduction. Les caractéristiques du « je » ovidien, telles qu'elles transparaissent dans la traduction, sont mises en lien avec l'image d'auteur, la poétique ou l'approche interprétative qui ressortent de l'ensemble des productions du traducteur (traductions, oeuvres de commentaire, créations littéraires etc.).¦La troisième partie de l'analyse s'interroge sur la manière dont le traducteur envisage sa pratique et se représente lui-même, dans sa préface ou à travers sa poétique de la traduction, en tant que traducteur. En comparant l'image qu'il montre de lui-même avec celle que sa traduction renvoie de l'auteur du texte original, on observe des similitudes qui suggèrent la parenté de la traduction et de la création littéraire.
Resumo:
Chemotherapy is widely used as a systemic treatment modality in cancer patients and provides survival benefits for a significant fraction of treated patients H However, some patients suffer from cancer relapse and rapidly progress to metastasis, suggesting that following chemotherapy their residual tumor developed a more aggressive phenotype 4 5. Although some molecular mechanisms involved in chemo-resistance and chemotherapy-induced metastatic relapse have been reported, more investigations and understanding of these processes are necessary before any translation into the clinic might be considered. By using the syngeneic metastatic 4T1 murine breast cancer model, we observed that chemotherapy treatment and selection of chemotherapy-resistant cancer cells in vitro can induces two opposite phenotypes: a dormant one and a relapsing-metastatic one. Previous studies in our laboratory demonstrated that irradiation of mammary gland promotes tumor metastasis, at least in part, by inducing the recruitment of CD11b+ cells to both the primary tumor and the lungs at a pre-metastatic stage. In this study we found that CD11b+ cells may also play important roles in chemotherapy-induced tumor metastasis and dormancy in vivo. Tumor cells expressing the stem cell marker Sca-1 were enriched by chemotherapy treatment in vitro, as well as in tumor metastasis in vivo. Furthermore, tumor-derived CD11b+ cells were capable to maintain and expand this population in vitro. These results suggest that the expansion of a tumor cell population with stem cell features might be a mechanism by which chemotherapy induces metastasis. On the other hand, the same drug treatment in vitro generated resistant cells with a dormant phenotype. Dormant tumor cells were able to induce an in vivo immune- inflammatory response in the draining lymph node, which is normally absent due to the immunosuppressive effects of tumor-recruited myeloid derived- suppressor cells (MDSCs). Genome-wide gene expression analysis revealed the enrichment of invasion and metastasis-related genes in the relapsing metastatic tumor cells and immune response-related genes in the dormant tumor cells. Interestingly, CD11b+ cells derived from the microenvironment of growing-metastatic tumors, but not CD11b+ cells derived from the spleen of tumor-free mice, were able to instigate outgrowth of dormant tumor cells in vivo. Also, dormant cells formed growing and metastatic tumors when injected into immune-compromised NGS mice. These results point to a role of chemotherapy in enabling treated tumor cells to acquire immune response-inducing capabilities, while impairing the recruitment of CD11b+ cells and their differentiation into an immune-suppressive cell. The molecular mechanisms underneath these effects are being further investigated. In conclusion, results obtained in this model indicate that chemotherapy can induce a dormant phenotype in cancer cells and that this state of dormancy can be broken by MDSCs educated by relapsing tumors. Understanding the mechanism beyond these effects, in particular unraveling the genetic or epigenetic determinants of dormancy vs relapse, might open the way to therapies aimed and maintaining residual cells escaping chemotherapy in a state of sustained dormancy. - La chimiothérapie est un traitement systémique largement utilisé chez les patients cancéreux qui donne un avantage de survie significatif pour une bonne partie de patients traités (1-3). Cependant, certains patients souffrent d'une rechute et progressent ensuite vers la métastase. Ceci suggère que leur tumeur résiduelle a développé un phénotype agressif suite à la chimiothérapie (4-5). Bien que certains mécanismes moléculaires impliqués dans la chimiorésistance et la rechute métastatique ont été identifiés, d'avantage d'études sont nécessaires afin de mieux comprendre ce phénomène et de développer des nouvelles thérapies cliniques. En utilisant un modèle syngénique de cancer du sein métastatique chez la sourie (4T1), nous avons observé que la sélection des cellules cancéreuses résistantes à la chimiothérapie in vitro peut induire deux phénotypes opposés: un phénotype de dormance et un phénotype de progression métastatique. Une étude précédente issue de notre laboratoire a démontré que l'irradiation de la glande mammaire favorise la métastase de tumeurs recourants suite au recrutement de cellules CD11b+ dans la tumeur primaire et dans les poumons pré-métastatiques. Dans notre étude nous avons constaté que les cellules CD11b+ peuvent également jouer un rôle important dans la formation de métastases induites par la chimiothérapie ainsi que dans le maintien de la dormance in vivo. Nous avons également observé un enrichissement de cellules tumorales exprimant le marqueur de cellule souche Sca-1 parmi les cellules tumorales résistantes à la chimiothérapie et dans les cellules qui on formé des métastases in vivo. Des cellules CD11b+ dérivées du microenvironnement tumorale favorisent l'expansion de la population de cellules tumorales Sca-1+ in vitro. Ces résultats suggèrent que l'expansion d'une population de cellules tumorales avec des caractéristiques de cellules souches pourrait constituer un mécanisme par lequel la chimiothérapie induit des métastases dans des tumeurs récurrentes. D'autre part le même traitement de chimiothérapie peut générer des cellules résistantes avec un phénotype dormant. Les expériences in vivo indiquent que les cellules tumorales dormantes induisent une réponse immunitaire inflammatoire dans le ganglion lymphatique de drainage, qui est normalement réprimée par des cellules myéloïdes suppressives de tumeur (MDSC). Une analyse d'expression de gènes a révélé l'enrichissement de gènes liés à l'invasion et à la métastase dans les cellules tumorales récurrentes et des gènes liés à la réponse immunitaire dans les cellules tumorales dormantes. Les cellules CD11b+ issues du microenvironnement des tumeurs récurrents ont incité la croissance des cellules tumorales dormantes in vivo, tandis que les cellules CD11b+ dérivées de la rate de souris non porteuses de tumeur ne l'étaient pas. Les mécanismes moléculaires sous-jacents restent à découvrir. En conclusion, les résultats obtenus dans ce modèle indiquent que la chimiothérapie pourrait favoriser non seulement l'induction d'une dormance cellulaire, mais également que les cellules dormantes seraient adroits de induire une réponse immunitaire capable les maintenir dans un état de dormance prolongé. Un déséquilibre dans cette réponse immunitaire pourrait des lors briser cet état de dormance et induire une progression tumorale. Comprendre les mécanismes responsables de ces effets, en particulier l'identification des déterminants génétiques ou épigénétiques liés à la dormance vs la rechute, pourraient ouvrir la voie à des nouvelles thérapies visant le maintien d'un état de dormance permanente des cellules résiduelles après chimiothérapie.
Resumo:
L'échec des tentatives de juguler les émissions globales de gaz à effet de serre a mené au renforcement d'un discours sur la nécessité de l'adaptation au changement climatique. Il est de plus souvent considéré qu'une transformation de l'action publique serait nécessaire afin de réduire les impacts de grande magnitude qui découlent du changement climatique. Depuis les années 2000, on constate ainsi un développement des activités étatiques dans le domaine de l'adaptation. Cette évolution suscite une question centrale: quels sont les effets réels que provoque l'intégration de l'adaptation au changement climatique dans la conduite des politiques publiques et comment expliquer les éventuelles limites à ces processus? La littérature spécialisée sur l'adaptation fait preuve d'un certain réductionnisme à l'égard de la complexité de l'action publique en considérant que lorsque la capacité d'agir contre le problème de la vulnérabilité au changement climatique existe, toute forme d'inaction publique serait un déficit de mise en oeuvre provoqué par des barrières à l'action qu'il faudrait lever. A contrario, cette thèse considère l'adaptation comme une norme de politique publique dont l'intégration est susceptible de provoquer des changements institutionnels dans la forme et le contenu des politiques publiques, et des effets concrets sur les acteurs vulnérables au changement climatique. Afin de mesurer les effets de l'intégration politique de l'adaptation, un concept est formulé sur la base d'un idéal-type du régime institutionnel adaptatif, soit une construction théorique des régulations qu'impliquerait une gestion cohérente du système socioécologique complexe dans lequel s'insère le système climatique. L'auteur propose un cadre d'analyse empirique des processus publics d'adaptation qu'il applique ensuite à deux États: l'Inde (politique agricole) et la Suisse (politique du tourisme hivernal), avec pour objectif de repérer des mécanismes explicatifs communs aux effets de l'intégration dans ces deux contextes extrêmement dissemblables. L'étude débouche sur six résultats qui constituent une contribution appréciable à la littérature. L'auteur montre: premièrement, que l'intégration politique de l'adaptation conduit à une production d'actes symboliques, qui s'explique notamment par le manque de pression publique à agir sur le problème de la vulnérabilité au changement climatique; deuxièmement, que le processus d'intégration agit sur la réalité sociale par le biais d'un mécanisme d'attribution de ressources publiques à certains acteurs du champ politique; troisièmement, que les groupes sociaux qui bénéficient de ces ressources publiques ne sont pas nécessairement les plus vulnérables, mais ceux détenant les ressources d'action nécessaires à l'activation de l'intervention publique; quatrièmement, que l'absence de clefs de répartition des coûts de l'adaptation, de procédures de monitoring et d'instruments d'action contraignants limitent les effets des programmes publics d'adaptation; cinquièmement, que la faible articulation institutionnelle entre objectif d'adaptation et objectifs de protection de l'environnement accentue le risque de processus d'adaptation produisant des externalités environnementales; sixièmement, que les transformations dont la littérature souligne la nécessité ne sont pas nécessairement faisables ni désirables. Sur la base de cette analyse, cette thèse s'écarte de la littérature dominante en concluant que les processus publics d'adaptation ne souffrent pas d'un déficit de mise en oeuvre, mais d'un déficit de légitimité lié à leurs effets pernicieux. L'auteur formule alors trois recommandations pour améliorer la légitimité de ces politiques et trois questions ouvertes sur le futur politique de l'adaptation.
Resumo:
Résumé : Les maladies cardiovasculaires restent la première cause de mortalité dans notre pays. Elles sont associées à des facteurs de risque (FRCV) bien connus comme le diabète ou la dyslipidémie. Nous résumons ici les principaux résultats de l'étude CoLaus concernant d'une part la prévalence du diabète et de la dyslipidémie et certaines caractéristiques de leur prise en charge.Les découvertes récentes concernant de nouveaux déterminants génétiques impliqués dans ces FRCV sont présentées de manière succincte. La contribution de ces données génétiques est également discutée dans une perspective de prise en charge clinique.[Abstract] Cardiovascular diseases remain the first cause of mortality in our country. They are associated with well known risk factors such as diabetes and dyslipidemia. Herein we summarize main results of the CoLaus study regarding, first the prevalence and characteristics of the treatment of these risk factors.Then we present recent discoveries of new genetic determinants associated with these risk factors. Finally, we discuss whether this knowledge changes our current clinical management of our patients.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.
Resumo:
Resume : L'utilisation de l'encre comme indice en sciences forensiques est décrite et encadrée par une littérature abondante, comprenant entre autres deux standards de l'American Society for Testing and Materials (ASTM). La grande majorité de cette littérature se préoccupe de l'analyse des caractéristiques physiques ou chimiques des encres. Les standards ASTM proposent quelques principes de base qui concernent la comparaison et l'interprétation de la valeur d'indice des encres en sciences forensiques. L'étude de cette littérature et plus particulièrement des standards ASTM, en ayant a l'esprit les développements intervenus dans le domaine de l'interprétation de l'indice forensique, montre qu'il existe un potentiel certain pour l'amélioration de l'utilisation de l'indice encre et de son impact dans l'enquête criminelle. Cette thèse propose d'interpréter l'indice encre en se basant sur le cadre défini par le théorème de Bayes. Cette proposition a nécessité le développement d'un système d'assurance qualité pour l'analyse et la comparaison d'échantillons d'encre. Ce système d'assurance qualité tire parti d'un cadre théorique nouvellement défini. La méthodologie qui est proposée dans ce travail a été testée de manière compréhensive, en tirant parti d'un set de données spécialement créer pour l'occasion et d'outils importés de la biométrie. Cette recherche répond de manière convaincante à un problème concret généralement rencontré en sciences forensiques. L'information fournie par le criminaliste, lors de l'examen de traces, est souvent bridée, car celui-ci essaie de répondre à la mauvaise question. L'utilisation d'un cadre théorique explicite qui définit et formalise le goal de l'examen criminaliste, permet de déterminer les besoins technologiques et en matière de données. Le développement de cette technologie et la collection des données pertinentes peut être justifiées économiquement et achevée de manière scientifique. Abstract : The contribution of ink evidence to forensic science is described and supported by an abundant literature and by two standards from the American Society for Testing and Materials (ASTM). The vast majority of the available literature is concerned with the physical and chemical analysis of ink evidence. The relevant ASTM standards mention some principles regarding the comparison of pairs of ink samples and the evaluation of their evidential value. The review of this literature and, more specifically, of the ASTM standards in the light of recent developments in the interpretation of forensic evidence has shown some potential improvements, which would maximise the benefits of the use of ink evidence in forensic science. This thesis proposes to interpret ink evidence using the widely accepted and recommended Bayesian theorem. This proposition has required the development of a new quality assurance process for the analysis and comparison of ink samples, as well as of the definition of a theoretical framework for ink evidence. The proposed technology has been extensively tested using a large dataset of ink samples and state of the art tools, commonly used in biometry. Overall, this research successfully answers to a concrete problem generally encountered in forensic science, where scientists tend to self-limit the usefulness of the information that is present in various types of evidence, by trying to answer to the wrong questions. The declaration of an explicit framework, which defines and formalises their goals and expected contributions to the criminal and civil justice system, enables the determination of their needs in terms of technology and data. The development of this technology and the collection of the data is then justified economically, structured scientifically and can be proceeded efficiently.
Resumo:
Une représentation sociale communément admise postule que le couple plurilingue et l'un de ses prolongements possibles, la vie en commun dans un pays, favorisent l'appropriation de la langue et la socialisation du partenaire alloglotte. Or, si c'est souvent le cas, il s'agit de dégager les conditions nécessaires à un tel processus positif d'apprentissage de la langue. De là découle l'intérêt d'une observation ethnographique des caractéristiques d'un mode d'apprentissage de la langue du milieu (ici, le français) qui s'actualise dans les couples plurilingues. Dans cet article je montrerai, par l'exemple d'un couple francophone/hispanophone établi en Suisse romande, comment la situation matrimoniale hétéroglotte propose un contexte spécifique à l'apprentissage de la langue. Je porterai particulièrement mon attention sur la construction par le partenaire alloglotte d'un sentiment de légitimité quant à son statut de locuteur plurilingue francophone
Resumo:
Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.
Resumo:
In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.