1000 resultados para Piliers de bien-être


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Améliorer la coordination des soins est un des points cardinaux de la politique Vieillissement et Santé du canton de Vaud. Ceci se traduit notamment par une volonté d'optimiser l'accès des personnes âgées à l'information médico-sociale. Un des projets qui en découle consiste à mettre en place un guichet intégré, soit un système centralisé, qui permettrait d'être renseigné·e ou orienté·e sur les prestations existantes efficacement et correctement, quelle que soit l'entité à laquelle on s'adresse. C'est dans ce contexte que le Centre d'Observation et d'Analyse du Vieillissement (COAV) a réalisé en 2013 une enquête sur l'accès à l'information médico-sociale auprès des personnes de 65 ans et plus non-institutionnalisées du canton. Ses résultats montrent que : ? Les besoins en prestations médico-sociales sont potentiellement importants car ces dernières sont susceptibles d'intéresser directement, du fait de difficultés fonctionnelles, un peu plus d'un tiers des personnes non institutionnalisées de plus de 65 ans, et indirectement 17 % des personnes du même âge qui sont aussi des aidant·e·s. Les femmes et les personnes bénéficiant de prestations complémentaires à l'assurance vieillesse (PC), étant plus fragiles, sont particulièrement concernées. ? Si cette population a potentiellement d'importants besoins en prestations médico-sociales, les portes d'accès à l'information sur ces prestations restent dans leur ensemble encore mal connues, même si l'on observe de grandes variations selon le type de services en question (selon les prestations, 27% à 57% des personnes interrogées ont déclaré ne pas savoir où s'adresser pour trouver de l'information à leur sujet). ? Les femmes, les personnes recevant des PC, ainsi que les personnes vulnérables et dépendantes sont proportionnellement plus actives dans la recherche d'information. ? Bien que les personnes ayant récemment eu l'occasion de rechercher de l'information sur certaines prestations médico-sociales semblent mieux connaître le système, 7% d'entre elles ont qualifié cette information de plutôt indisponible, 21% d'incomplète, 33% de dispersée et 15% de contradictoire. ? Deux tiers des personnes âgées pensent que l'information médico-sociale devrait être plus accessible sur l'existence de prestations, leur coût et les possibilités d'aide financière pour pouvoir en bénéficier. ? Parmi les personnes n'ayant pas récemment recherché d'information, les habitants de la région Nord sauraient plus souvent où s'adresser pour s'informer que ceux des autres régions. RAISONS DE SANTÉ 221 ? Etre un homme, être défavorisé financièrement (présence de PC) et, au niveau du statut fonctionnel, être vulnérable plutôt que robuste, sont des facteurs de risque d'accès limité à l'information. ? Les mêmes facteurs de risque se retrouvent en conduisant les analyses par type de prestations, excepté pour l'aide relative aux démarches administratives. L'information sur cette aide est mieux connue des personnes recevant des PC parmi celles ayant récemment recherché de l'information. ? Il n'a cependant pas été possible d'identifier un profil-type de la personne à risque face à l'accès à l'information sur la base des données socio-démographiques et fonctionnelles disponibles. ? D'autre part, cette enquête a mis en évidence le fait que le médecin traitant (désigné par 77% des individus) et le CMS (64 %), ainsi que, dans une moindre mesure, la commune (35%), sont les acteurs vers lesquelles les personnes âgées du canton se dirigeraient le plus volontiers pour trouver des informations sur diverses prestations médico-sociales. ? Cependant, au vu des variations constatées en comparant certains sous-groupes, d'autres sources ne sont pas à négliger lors de la mise en place d'un guichet intégré (telles qu'Internet, les EMS, Pro Senectute, les pharmacies, les BRIO, les hôpitaux, la garde médicale, etc.). Cette enquête montre que malgré les efforts entrepris pour faire connaître les prestations médico-sociales, une proportion non négligeable de ces services est peu connue des bénéficiaires potentiels. Ainsi, il serait intéressant de réitérer une telle étude après la mise en place du guichet intégré afin de pouvoir évaluer son impact.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Learning and immunity are two adaptive traits with roles in central aspects of an organism's life: learning allows adjusting behaviours in changing environments, while immunity protects the body integrity against parasites and pathogens. While we know a lot about how these two traits interact in vertebrates, the interactions between learning and immunity remain poorly explored in insects. During my PhD, I studied three possible ways in which these two traits interact in the model system Drosophila melanogaster, a model organism in the study of learning and in the study of immunity. Learning can affect the behavioural defences against parasites and pathogens through the acquisition of new aversions for contaminated food for instance. This type of learning relies on the ability to associate a food-related cue with the visceral sickness following ingestion of contaminated food. Despite its potential implication in infection prevention, the existence of pathogen avoidance learning has been rarely explored in invertebrates. In a first part of my PhD, I tested whether D. melanogaster, which feed on food enriched in microorganisms, innately avoid the orally-acquired 'novel' virulent pathogen Pseudomonas entomophila, and whether it can learn to avoid it. Although flies did not innately avoid this pathogen, they decreased their preference for contaminated food over time, suggesting the existence of a form of learning based likely on infection-induced sickness. I further found that flies may be able to learn to avoid an odorant which was previously associated with the pathogen, but this requires confirmation with additional data. If this is confirmed, this would be the first time, to my knowledge, that pathogen avoidance learning is reported in an insect. The detrimental effect of infection on cognition and more specifically on learning ability is well documented in vertebrates and in social insects. While the underlying mechanisms are described in detail in vertebrates, experimental investigations are lacking in invertebrates. In a second part of my PhD, I tested the effect of an oral infection with natural pathogens on associative learning of D. melanogaster. By contrast with previous studies in insects, I found that flies orally infected with the virulent P. entomophila learned better the association of an odorant with mechanical shock than uninfected flies. The effect seems to be specific to a gut infection, and so far I have not been able to draw conclusions on the respective contributions of the pathogen's virulence and of the flies' immune activity in this effect. Interestingly, infected flies may display an increased sensitivity to physical pain. If the learning improvement observed in infected flies was due partially to the activity of the immune system, my results would suggest the existence of physiological connections between the immune system and the nervous system. The basis of these connections would then need to be addressed. Learning and immunity are linked at the physiological level in social insects. Physiological links between traits often result from the expression of genetic links between these traits. However, in social insects, there is no evidence that learning and immunity may be involved in an evolutionary trade-off. I previously reported a positive effect of infection on learning in D. melanogaster. This might suggest that a positive genetic link could exist between learning and immunity. We tested this hypothesis with two approaches: the diallel cross design with inbred lines, and the isofemale lines design. The two approaches provided consistent results: we found no additive genetic correlation between learning and resistance to infection with the diallel cross, and no genetic correlation in flies which are not yet adapted to laboratory conditions in isofemale lines. Consistently with the literature, the two studies suggested that the positive effect of infection on learning I observed might not be reflected by a positive evolutionary link between learning and immunity. Nevertheless, the existence of complex genetic relationships between the two traits cannot be excluded. - L'apprentissage et l'immunité sont deux caractères à valeur adaptative impliqués dans des aspects centraux de la vie d'un organisme : l'apprentissage permet d'ajuster les comportements pour faire face aux changements de l'environnement, tandis que l'immunité protège l'intégrité corporelle contre les attaques des parasites et des pathogènes. Alors que les interactions entre l'apprentissage et l'immunité sont bien documentées chez les vertébrés, ces interactions ont été très peu étudiées chez les insectes. Pendant ma thèse, je me suis intéressée à trois aspects des interactions possibles entre l'apprentissage et l'immunité chez la mouche du vinaigre Drosophila melanogaster, qui est un organisme modèle dans l'étude à la fois de l'apprentissage et de l'immunité. L'apprentissage peut affecter les défenses comportementales contre les parasites et les pathogènes par l'acquisition de nouvelles aversions pour la nourriture contaminée par exemple. Ce type d'apprentissage repose sur la capacité à associer une caractéristique de la nourriture avec la maladie qui suit l'ingestion de cette nourriture. Malgré les implications potentielles pour la prévention des infections, l'évitement appris des pathogènes a été rarement étudié chez les invertébrés. Dans une première partie de ma thèse, j'ai testé si les mouches, qui se nourrissent sur des milieux enrichis en micro-organismes, évitent de façon innée un 'nouveau' pathogène virulent Pseudomonas entomophila, et si elles ont la capacité d'apprendre à l'éviter. Bien que les mouches ne montrent pas d'évitement inné pour ce pathogène, elles diminuent leur préférence pour de la nourriture contaminée dans le temps, suggérant l'existence d'une forme d'apprentissage basée vraisemblablement sur la maladie générée par l'infection. J'ai ensuite observé que les mouches semblent être capables d'apprendre à éviter une odeur qui était au préalable associée avec ce pathogène, mais cela reste à confirmer par la collecte de données supplémentaires. Si cette observation est confirmée, cela sera la première fois, à ma connaissance, que l'évitement appris des pathogènes est décrit chez un insecte. L'effet détrimental des infections sur la cognition et plus particulièrement sur les capacités d'apprentissage est bien documenté chez les vertébrés et les insectes sociaux. Alors que les mécanismes sous-jacents sont détaillés chez les vertébrés, des études expérimentales font défaut chez les insectes. Dans une seconde partie de ma thèse, j'ai mesuré les effets d'une infection orale par des pathogènes naturels sur les capacités d'apprentissage associatif de la drosophile. Contrairement aux études précédentes chez les insectes, j'ai trouvé que les mouches infectées par le pathogène virulent P. entomophila apprennent mieux à associer une odeur avec des chocs mécaniques que des mouches non infectées. Cet effet semble spécifique à l'infection orale, et jusqu'à présent je n'ai pas pu conclure sur les contributions respectives de la virulence du pathogène et de l'activité immunitaire des mouches dans cet effet. De façon intéressante, les mouches infectées pourraient montrer une plus grande réactivité à la douleur physique. Si l'amélioration de l'apprentissage observée chez les mouches infectées était due en partie à l'activité du système immunitaire, mes résultats suggéreraient l'existence de connections physiologiques entre le système immunitaire et le système nerveux. Les mécanismes de ces connections seraient à explorer. L'apprentissage et l'immunité sont liés sur un plan physiologique chez les insectes sociaux. Les liens physiologiques entre les caractères résultent souvent de l'expression de liens entre ces caractères au niveau génétique. Cependant, chez les insectes sociaux, il n'y a pas de preuve que l'apprentissage et l'immunité soient liés par un compromis évolutif. J'ai précédemment rapporté un effet positif de l'infection sur l'apprentissage chez la drosophile. Cela pourrait suggérer qu'une relation génétique positive existerait entre l'apprentissage et l'immunité. Nous avons testé cette hypothèse par deux approches : le croisement diallèle avec des lignées consanguines, et les lignées isofemelles. Les deux approches ont fournies des résultats similaires : nous n'avons pas détecté de corrélation génétique additive entre l'apprentissage et la résistance à l'infection avec le croisement diallèle, et pas de corrélation génétique chez des mouches non adaptées aux conditions de laboratoire avec les lignées isofemelles. En ligne avec la littérature, ces deux études suggèrent que l'effet positif de l'infection sur l'apprentissage que j'ai précédemment observé ne refléterait pas un lien évolutif positif entre l'apprentissage et l'immunité. Néanmoins, l'existence de relations génétiques complexes n'est pas exclue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'article publié de le cadre de cette thèse est intitulé "Effectiveness of interventions targeting frequent users of emergency departments: A systematic review." Il a été publié par les "Annals of Emergency Medicine (AEM)" en juillet 2011. Le titre en français pourrait être: "Efficacité des interventions ciblant les utilisateurs fréquents des services d'urgence: Une revue systématique." Le titre du journal américain pourrait être: "Annales dedecine d'Urgence". Il s'agit du journal du "Collège Américain des Médecins d'Urgence", en anglais "American College of Emergency Physicians (ACEP)". L'article a été soumis à l'AEM en raison de l'intérêt que ses rédacteurs en chef portent pour le sujet des utilisateurs fréquents des services d'urgence, démontré depuis plus de dix ans par la publication de nombreux articles dans ce domaine. Le facteur d'impact de l'AEM est de surcroît le plus important des journaux d'urgence, assurant ainsi une large diffusion des articles publiés. Lors de sa publication, l'article a été accompagné d'un éditorial signé par le Docteur Maria C. Raven, médecin au Centre Hospitalier de Bellevue à New York, Etats-Unis.¦Contexte et enjeux¦La Direction Générale du Centre Hospitalier Vaudois (CHUV) finance, dans le cadre du plan stratégique 2009-2013, un axe "populations vulnérables". Cet axe est porté en grande partie par des projets développés au sein de la Policinlique Médicale Universitaire et l'Unité des Populations Vulnérables qui prend en charge, enseigne la prise en charge et s'interroge sur la prise en charge des personnes les plus vulnérables. C'est dans ce contexte que nous avons été amenés à réfléchir à l'existence éventuelle de marqueurs de vulnérabilité; l'utilisation fréquente des services d'urgence par certains individus constitue à n'en pas douter l'un de ces marqueurs. Il existe une importante littérature décrivant en détail ces utilisateurs fréquents des services d'urgence, raison pour laquelle nous avons décidé de faire un pas supplémentaire et de nous interroger sur l'efficacité des interventions (quelle qu'elles soient) ciblant cette population particulière. Nous avons ainsi entrepris une revue systématique de la littérature scientifique médicale et sociale pour approfondir cette question, et c'est précisément le résultat de cette recherche qui constitue ce travail de thèse.¦Conclusions et perspectives¦Les utilisateurs fréquents des services d'urgence sont des individus particulièrement vulnérables, et ce aussi bien aux Etats-Unis, qu'en Europe ou en Australie: ils présentent par exemple une mortalité supérieure aux autres utilisateurs des urgences; ils sont également plus à risque de présenter une consommation abusive d'alcool ou de drogues, une maladie mentale, ou une maladie chronique. Ils sont plus souvent sans abri, sans assurance et d'un statut socio-économique bas.¦De nombreuses interventions on été développées pour prendre en charge les utilisateurs fréquents des urgences. Le but de ces interventions est d'une part de réduire la consommation des services d'urgence et d'autre part d'améliorer la santé au sens large de ces patients vulnérables. C'est en ces termes (réduction de la fréquence d'utilisation des services d'urgence et amélioration de la santé) que l'efficacité d'une intervention est mesurée.¦Parmi l'ensemble des interventions étudiées, l'une semble particulièrement efficace pour réduire le nombre de visites aux urgences et améliorer un certain nombre de marqueurs sociaux (accès à un logement ou à une assurance-maladie). Cette intervention est appelée "case management" (ou "gestion de cas", difficile tentative de traduction de ce concept en français), et consiste en une approche multidisciplinaire (médecins, infirmiers, assistants sociaux) fournissant un service individualisé, dans le cadre de l'hôpital et souvent également dans la communauté. L'approche consiste à évaluer les besoins précis du patient, à l'accompagner dans son parcours de soin, à l'orienter si nécessaire et à mettre en place autour de lui un réseau communiquant de manière adaptée.¦Le "case management" ayant montré son efficacité dans la prise en charge des utilisateurs fréquents des services d'urgence, y-compris en termes de coûts, notre conclusion va dans le sens d'encourager les hôpitaux à évaluer l'importance de ce phénomène dans leur propre pratique et à mettre en place des équipes de prise en charge de ces patients, dans le double but de soutenir des patients particulièrement vulnérables et de réduire la consommation des services d'urgence. Suite à la réflexion suscitée par ce travail de thèse, une telle équipe a été mise en place en 2010, dans un cadre de recherche-action, au niveau du CHUV. Ce projet est dirigé par le Dr Patrick Bodenmann, responsable de l'Unité Populations Vulnérables de la Policlinique Médicale Universitaire de Lausanne. Le Dr Bodenmann est également le directeur de cette thèse et le dernier auteur de la revue systématique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUME : La douleur neuropathique est le résultat d'une lésion ou d'un dysfonctionnement du système nerveux. Les symptômes qui suivent la douleur neuropathique sont sévères et leur traitement inefficace. Une meilleure approche thérapeutique peut être proposée en se basant sur les mécanismes pathologiques de la douleur neuropathique. Lors d'une lésion périphérique une douleur neuropathique peut se développer et affecter le territoire des nerfs lésés mais aussi les territoires adjacents des nerfs non-lésés. Une hyperexcitabilité des neurones apparaît au niveau des ganglions spinaux (DRG) et de la corne dorsale (DH) de la moelle épinière. Le but de ce travail consiste à mettre en évidence les modifications moléculaires associées aux nocicepteurs lésés et non-lésés au niveau des DRG et des laminae I et II de la corne dorsale, là où l'information nociceptive est intégrée. Pour étudier les changements moléculaires liés à la douleur neuropathique nous utilisons le modèle animal d'épargne du nerf sural (spared nerve injury model, SNI) une semaine après la lésion. Pour la sélection du tissu d'intérêt nous avons employé la technique de la microdissection au laser, afin de sélectionner une sous-population spécifique de cellules (notamment les nocicepteurs lésés ou non-lésés) mais également de prélever le tissu correspondant dans les laminae superficielles. Ce travail est couplé à l'analyse à large spectre du transcriptome par puce ADN (microarray). Par ailleurs, nous avons étudié les courants électriques et les propriétés biophysiques des canaux sodiques (Na,,ls) dans les neurones lésés et non-lésés des DRG. Aussi bien dans le système nerveux périphérique, entre les neurones lésés et non-lésés, qu'au niveau central avec les aires recevant les projections des nocicepteurs lésés ou non-lésés, l'analyse du transcriptome montre des différences de profil d'expression. En effet, nous avons constaté des changements transcriptionnels importants dans les nocicepteurs lésés (1561 gènes, > 1.5x et pairwise comparaison > 77%) ainsi que dans les laminae correspondantes (618 gènes), alors que ces modifications transcriptionelles sont mineures au niveau des nocicepteurs non-lésés (60 gènes), mais important dans leurs laminae de projection (459 gènes). Au niveau des nocicepteurs, en utilisant la classification par groupes fonctionnels (Gene Ontology), nous avons observé que plusieurs processus biologiques sont modifiés. Ainsi des fonctions telles que la traduction des signaux cellulaires, l'organisation du cytosquelette ainsi que les mécanismes de réponse au stress sont affectés. Par contre dans les neurones non-lésés seuls les processus biologiques liés au métabolisme et au développement sont modifiés. Au niveau de la corne dorsale de la moelle, nous avons observé des modifications importantes des processus immuno-inflammatoires dans l'aire affectée par les nerfs lésés et des changements associés à l'organisation et la transmission synaptique au niveau de l'aire des nerfs non-lésés. L'analyse approfondie des canaux sodiques a démontré plusieurs changements d'expression, principalement dans les neurones lésés. Les analyses fonctionnelles n'indiquent aucune différence entre les densités de courant tétrodotoxine-sensible (TTX-S) dans les neurones lésés et non-lésés même si les niveaux d'expression des ARNm des sous-unités TTX-S sont modifiés dans les neurones lésés. L'inactivation basale dépendante du voltage des canaux tétrodotoxine-insensible (TTX-R) est déplacée vers des potentiels positifs dans les cellules lésées et non-lésées. En revanche la vitesse de récupération des courants TTX-S et TTX-R après inactivation est accélérée dans les neurones lésés. Ces changements pourraient être à l'origine de l'altération de l'activité électrique des neurones sensoriels dans le contexte des douleurs neuropathiques. En résumé, ces résultats suggèrent l'existence de mécanismes différenciés affectant les neurones lésés et les neurones adjacents non-lésés lors de la mise en place la douleur neuropathique. De plus, les changements centraux au niveau de la moelle épinière qui surviennent après lésion sont probablement intégrés différemment selon la perception de signaux des neurones périphériques lésés ou non-lésés. En conclusion, ces modulations complexes et distinctes sont probablement des acteurs essentiels impliqués dans la genèse et la persistance des douleurs neuropathiques. ABSTRACT : Neuropathic pain (NP) results from damage or dysfunction of the peripheral or central nervous system. Symptoms associated with NP are severe and difficult to treat. Targeting NP mechanisms and their translation into symptoms may offer a better therapeutic approach.Hyperexcitability of the peripheral and central nervous system occurs in the dorsal root ganglia (DRG) and the dorsal horn (DH) of the spinal cord. We aimed to identify transcriptional variations in injured and in adjacent non-injured nociceptors as well as in corresponding laminae I and II of DH receiving their inputs.We investigated changes one week after the injury induced by the spared nerve injury model of NP. We employed the laser capture microdissection (LCM) for the procurement of specific cell-types (enrichment in nociceptors of injured/non-injured neurons) and laminae in combination with transcriptional analysis by microarray. In addition, we studied functionál properties and currents of sodium channels (Nav1s) in injured and neighboring non-injured DRG neurons.Microarray analysis at the periphery between injured and non-injured DRG neurons and centrally between the area of central projections from injured and non-injured neurons show significant and differential expression patterns. We reported changes in injured nociceptors (1561 genes, > 1.5 fold, >77% pairwise comparison) and in corresponding DH laminae (618 genes), while less modifications occurred in non-injured nociceptors (60 genes) and in corresponding DH laminae (459 genes). At the periphery, we observed by Gene Ontology the involvement of multiple biological processes in injured neurons such as signal transduction, cytoskeleton organization or stress responses. On contrast, functional overrepresentations in non-injured neurons were noted only in metabolic or developmentally related mechanisms. At the level of superficial laminae of the dorsal horn, we reported changes of immune and inflammatory processes in injured-related DH and changes associated with synaptic organization and transmission in DH corresponding to non-injured neurons. Further transcriptional analysis of Nav1s indicated several changes in injured neurons. Functional analyses of Nav1s have established no difference in tetrodotoxin-sensitive (TTX-S) current densities in both injured and non-injured neurons, despite changes in TTX-S Nav1s subunit mRNA levels. The tetrodotoxin-resistant (TTX-R) voltage dependence of steady state inactivation was shifted to more positive potentials in both injured and non-injured neurons, and the rate of recovery from inactivation of TTX-S and TTX-R currents was accelerated in injured neurons. These changes may lead to alterations in neuronal electrogenesis. Taken together, these findings suggest different mechanisms occurring in the injured neurons and the adjacent non-injured ones. Moreover, central changes after injury are probably driven in a different manner if they receive inputs from injured or non-injured neurons. Together, these distinct and complex modulations may contribute to NP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La trachée et les bronches proximales sont de fins conduits subtils, ingénieusement structurés par une partie cartilagineuse antérieure résistante aux variations de pression et une partie membraneuse postérieure souple. Par leurs faibles volumes (espace mort) ils délivrent un grand pourcentage de l'air inspiré aux voies distales, puis au parenchyme pulmonaire, permettant les échanges de gaz. Cette belle harmonie respiratoire peut être rapidement mise à mal dès qu'un processus atteint ces voies respiratoires proximales, soit en les comprimant, processus sténosant, soit en affaiblissant leur structure, trachéo-bronchomalacie, soit en ouvrant leur paroi sur les structures médiastinales, fistule trachéo/broncho-médiastinales, pleurales ou autres. Le pronostic vital est alors rapidement engagé au vu de l'absolue nécessité du bon fonctionnement de ces fins conduits, une petite diminution du calibre de leurs fines lumières provoquant une baisse importante de leurs surfaces. Dans ces situations à haut potentiel de complication majeure les interventions endoscopiques pour restaurer l'intégrité de ces conduits sont alors fort risquées, et il est primordial de pouvoir les effectuer dans un cadre sécurisé au maximum. La réalisation de ces gestes par la technique décrite dans notre article « Use of combined suspension laryngoscopy, flexible bronchoscopy and high frequency jet ventilation forY-shaped airway stents delivery" permet la sécurité nécessaire à ces situations instable, en effet -la laryngoscopie en suspension expose les voies proximales en offrant un accès le plus large possible à l'arbre trachéobronchique ce qui permet l insertion de multiples instruments parfois volumineux, -la Jet ventilation assure une oxygénation et une ventilation adéquate par un fin cathéter placé soit dans le poumon sain, soit en distalité de la lésion -la bronchoscopie souple, passant au travers d'endroits exigus et courbes permet le déploiement sous vision direct, au millimètre près, de divers dispositifs. Cette association remplace avantageusement la technique traditionnelle qui insère les stents à l'aveugle, et en apnée, ce qui représente de haut risque de mauvais positionnement des stents avec des conséquences immédiates sur l'oxygénation et la ventilation souvent déjà bien altérées. Perspective et conclusion : cette technique est utile pour l'insertion des stents en Y, centraux, comme décrit dans notre article, et les indications peuvent être étendues aux stents distaux pour lesquels l'accès n'est parfois pas aisé avec le bronchoscope rigide, et pour d'autres interventions endoscopiques, laser, cryothérapie, radiofréquence ou l'insertion de nouveaux dispositifs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : Les vertébrés ont recours au système immunitaire inné et adaptatif pour combattre les pathogènes. La découverte des récepteurs Toll, il y a dix ans, a fortement augmenté l'intérêt porté à l'immunité innée. Depuis lors, des récepteurs intracellulaires tels que les membres de la famille RIG-like helicase (RLHs) et NOD-like receptor (NLRs) ont été décrits pour leur rôle dans la détection des pathogènes. L'interleukine-1 beta (IL-1β) est une cytokine pro-inflammatoire qui est synthétisée sous forme de précurseur, la proIL-1β. La proIL-1β requiert d'être clivée par la caspase-1 pour devenir active. La caspase-1 est elle-même activée par un complexe appelé inflammasome qui peut être formé par divers membres de la famille NLR. Plusieurs inflammasomes ont été décrits tels que le NALP3 inflammasome ou l'IPAF inflammasome. Dans cette étude nous avons identifié la co-chaperone SGT1 et la chaperone HSP90 comme partenaires d'interaction de NALP3. Ces deux protéines sont bien connues chez les plantes pour leurs rôles dans la régulation des gènes de résistance (gène R) qui sont structurellement apparentés à la famille NLR. Nous avons pu montrer que SGT1 et HSP90 jouent un rôle similaire dans la régulation de NALP3 et des protéines R. En effet, nous avons démontré que les deux protéines sont nécessaires pour l'activité du NALP3 inflammasome. De plus, la HSP90 est également requise pour la stabilité de NALP3. En se basant sur ces observations, nous avons proposé un modèle dans lequel SGT1 et HSP90 maintiennent NALP3 inactif mais prêt à percevoir un ligand activateur qui initierait la cascade inflammatoire. Nous avons également montré une interaction entre SGT1 et HSP90 avec plusieurs NLRs. Cette observation suggère qu'un mécanisme similaire pourrait être impliqué dans la régulation des membres de la famille des NLRs. Ces dernières années, plusieurs PAMPs mais également des DAMPs ont été identifiés comme activateurs du NALP3 inflammasome. Dans la seconde partie de cette étude, nous avons identifié la réponse au stress du réticulum endoplasmique (RE) comme nouvel activateur du NALP3 inflammasome. Cette réponse est initiée lors de l'accumulation dans le réticulum endoplasmique de protéines ayant une mauvaise conformation ce qui conduit, en autre, à l'arrêt de la synthèse de nouvelles protéines ainsi qu'une augmentation de la dégradation des protéines. Les mécanismes par lesquels la réponse du réticulum endoplasmique induit l'activation du NALP3 inflammasome doivent encore être déterminés. Summary : Vertebrates rely on the adaptive and the innate immune systems to fight pathogens. Awarness of the importance of the innate system increased with the identification of Toll-like receptors a decade ago. Since then, intracellular receptors such as the RIG-like helicase (RLH) and the NOD-like receptor (NLR) families have been described for their role in the recognition of microbes. Interleukin- 1ß (IL-1ß) is a key mediator of inflammation. This proinflammatory cytokine is synthesised as an inactive precursor that requires processing by caspase-1 to become active. Caspase-1 is, itself, activated in a complex termed the inflammasome that can be formed by members of the NLR family. Various inflammasome complexes have been described such as the IPAF and the NALP3 inflammasome. In this study, we have identified the co-chaperone SGT1 and the chaperone HSP90 as interacting partners of NALP3. SGT1 and HSP90 are both known for their role in the activity of plant resistance proteins (R proteins) which are structurally related to the NLR family. We have shown that HSP90 and SGT1 play a similar role in the regulation of NALP3 and in the regulation of plant R proteins. Indeed, we demonstrated that both HSP90 and SGT1 are essential for the activity of the NALP3 inflammasome complex. In addition, HSP90 is required for the stability of NALP3. Based on these observations, we have proposed a model in which SGT1 and HSP90 maintain NALP3 in an inactive but signaling-competent state, ready to receive an activating ligand that induces the inflammatory cascade. An interaction between several NLR members, SGTI and HSP90 was also shown, suggesting that similar mechanisms could be involved in the regulation of other NLRs. Several pathogen-associated molecular patterns (PAMPs) but also danger associated molecular patterns (DAMPs) have been identified as NALP3 activators. In the second part of this study, we have identified the ER stress response as a new NALP3 activator. The ER stress response is activated upon the accumulation of unfolded protein in the endoplasmic reticulum and results in a block in protein synthesis and increased protein degradation. The mechanisms of ER stress-mediated NALP3 activation remain to be determined.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ABSTRACT Malaria is a major worldwide public health problem, with transmission occurring throughout Africa, Asia, Oceania and Latin America. Over two billion people live in malarious areas of the world and it is estimated that 300-500 million cases and 1.5-2.7 million deaths occur annually. The increase in multi-drug resistant parasites and insecticide-resistant vectors has made the development of malaria vaccine a public health priority. The published genome offers tremendous opportunity for the identification of new antigens that can befast-tracked for vaccine development. We identified potential protein antigens present on the surface of asexual malaria blood stages through bioinformatics and published transcriptome and proteorné analysis. Amongst the proteins identified, we selected those that contain predicted a-helical coiled-coil regions, which are generally short and structurally stable as isolated fragments. Peptides were synthesized and used to immunize mice. Most peptides tested were immunogenic as demonstrated in ELISA assays, and induced antibodies of varying titres. In immunofluorescence assays, anti-sera from immunized mice reacted with native proteins expressed at different intraerythrocytic developmental stages of the parasite's cycle. In parallel in vitro ADCI functional studies, human antibodies affinity purified on some of these peptides inhibited parasite growth in association with monocytes in magnitudes similar to that seen in semiimmune African adults. Siudies using human immune sera taken from different malaria endemic regions, demonstrated that majority of peptides were recognized at high prevalence. 73 peptides were next tested in longitudinal studies in two cohorts separated in space and time in coastal Kenya. In these longitudinal analyses, antibody responses to peptides were sequentially examined in two cohorts of children at risk of clinical malaria in order to characterize the level of peptide recognition by age, and the role of anti-peptide antibodies in protection from clinical malaria. Ten peptides were associated ?with a significantly reduced odds ratio for an episode of clinical malaria in the first cohort of children and two of these peptides (LR146 and ÁS202.11) were associated with a significantly reduced odds ratio in both cohorts. This study has identified proteins PFB0145c and MAL6P1.37 among others as likely targets of protective antibodies. Our findings support further studies to systematically assess immunogenicity of peptides of interest in order to establish clear criteria for optimal design of potential vaccine constructs to be tested in clinical trials. RESUME La malaria est un problème de santé publique mondial principalement en Afrique, en Asie, en Océanie et en Amérique latine. Plus de 2 milliards de personnes vivent dans des régions endémiques et le nombre de cas par année est estimé entre 300 et 500 millions. 1.5 à 2.7 millions de décès surviennent annuellement dans ces zones. L'augmentation de la résistance aux médicaments et aux insecticides fait du développement d'un vaccin une priorité. Le séquençage complet du génome du parasite offre l'opportunité d'identifier de nouveaux antigènes qui peuvent rapidement mener au développement d'un vaccin. Des protéines antigéniques potentielles présentes à la surface des globules rouges infectés ont été identifiées par bioinformatique et par l'analyse du protéome et du transcriptome. Nous avons sélectionné, parmi ces protéines, celles contenant des motifs dits "a helical coiled-coil" qui sont généralement courts et structurellement stables. Ces régions ont été obtenues par synthèse peptidique et utilisées pour immuniser des souris. La plupart des peptides testés sont immunogéniques et induisent un titre variable d'anticorps déterminé par ELISA. Les résultats de tests d'immunofluorescence indiquent que les sera produits chez la souris reconnaissent les protéines natives exprimées aux différents stades de développement du parasite. En parallèle, des études d'ADCI in vitro montrent qué des anticorps humains purifiés à partir de ces peptides associés à des monocytes inhibent la croissance du parasite aussi bien que celle observée chez des adultes africains protégés. Des études d'antigénicité utilisant des sera de personnes protégées de différents âges vivant dans des régions endémiques montrent que la majorité des peptides sont reconnus avec une haute prévalence. 73 peptides ont été testés dans une étude longitudinale avec 2 cohortes de la côte du Kenya. Ces 2 groupes viennent de zones bien distinctes et les prélèvements n'ont pas été effectués pendant la même période. Dans cette étude, la réponse anticorps contre les peptides synthétiques a été testée dans les 2 cohortes d'enfants à risque de développer un épisode de malaria afin de caractériser le niveau de reconnaissance des peptides en fonction de l'âge et de déterminer le rôle des anticorps anti-peptides dans la protection contre la malaria. Parmi ces peptides, 10 sont associés à une réduction significative des risques de développer un épisode de malaria dans la première cohorte alors qu'un seul (LR146 et AS202.11) l'est dans les 2 cohortes. Cette étude a identifié, parmi d'autres, les protéines PFB0145c et MAL6P1.37 comme pouvant être la cible d'anticorps. Ces résultats sont en faveur de futures études qui évalueraient systématiquement l'immunogénicité des peptides d'intérêt dans le but d'établir des critères de sélection clairs pour le développement d'un vaccin. Résumé pour un large public La malaria est un problème de santé publique mondial principalement en Afrique, en Asie, en Océanie et en Amérique latine. Plus de 2 milliards de personnes vivent dans des régions endémiques et le nombre de cas par année est estimé entre 300 et 500 millions. 1.5 à 2.7 millions de décès surviennent annuellement dans ces zones. La résistance aux médicaments et aux insecticides augmente de plus en plus d'où la nécessité de développer un vaccin. Le séquençage complet du génome (ensemble des gènes) de P. falciparum a conduit au développement de nouvelles .études à large échelle dans le domaine des protéines du parasite (protéome) ; dans l'utilisation d'algorithmes, de techniques informatiques et statistiques pour l'analyse de données biologiques (bioinformatique) et dans les technologies de transcription et de profiles d'expression (transcriptome). Nous avons identifié, en utilisant les outils ci-dessus, des nouvelles protéines antigéniques qui sont présentes au stade sanguin de la malaria. Nous avons sélectionné, parmi ces protéines, celles contenant un motif dit "a-helical coiled-coil" qui sont des domaines impliqués dans un large éventail de fonctions biologiques. Des peptides représentant ces régions structurellement stables ont été synthétisés et utilisés pour immuniser des souris. La plupart des peptides testés sont immunogéniques et induisent un titre variable d'anticorps déterminé par ELISA. Les résultats de tests d'immunofluorescence indiquent que plusieurs sera de souris immunisées avec ces peptides reconnaissent les protéines natives exprimées à la surface des globules rouges infectés. En parallèle, des études d'ADCI in vitro montrent que des anticorps humains purifiés à partir de ces peptides en présence de monocytes inhibent la croissance du parasite de manière similaire à celle observée chez des adultes africains protégés. Des études d'antigénicité utilisant des sera de personnes immunes de différents âges (adultes et enfants) vivant dans des régions endémiques montrent que la majorité des peptides sont reconnus avec une haute prévalence. 73 peptides ont été testés dans des études épidémiologiques dans 2 villages côtiers du Kenya Ces 2 groupes vivent dans des zones bien distinctes et les prélèvements n'ont pas été effectués pendant la même période. Dans ces études, la réponse anticorps dirigée contre les peptides synthétiques a été testée en utilisant 467 échantillons sanguins d'enfants à risque de développer un épisode de malaria afin de caractériser le niveau de reconnaissance des peptides en fonction de l'âge et de déterminer le rôle des anticorps anti-peptides dans la protection contre la malaria cérébrale. Parmi ces peptides, 10 sont associés à une protection contre un épisode de malaria dans le premier village alors qu'un seul l'est dans les 2 villages. Ces résultats sont en faveur de futures études qui évalueraient systématiquement l'immunogénicité des peptides intéressants dans le but d'établir des critères de sélection clairs pour le développement d'un vaccin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.