1000 resultados para 1015
Resumo:
SUMMARYThe innate immune system plays a central role in host defenses against invading pathogens. Innate immune cells sense the presence of pathogens through pattern recognition receptors that trigger intracellular signaling, leading to the production of pro-inflammatory mediators like cytokines, which shape innate and adaptive immune responses. Both by excess and by default inflammation may be detrimental to the host. Indeed, severe sepsis and septic shock are lethal complications of infections characterized by a dysregulated inflammatory response.In recent years, members of the superfamily of histone deacetylases have been the focus of great interest. In mammals, histone deacetylases are broadly classified into two main subfamilies comprising histone deacetylases 1-11 (HDAC1-11) and sirtuins 1-7 (SIRT1-7). These enzymes influence gene expression by deacetylating histones and numerous non-histone proteins. Histone deacetylases have been involved in the development of oncologic, metabolic, cardiovascular, neurodegenerative and autoimmune diseases. Pharmacological modulators of histone deacetylase activity, principally inhibitors, have been developed for the treatment of cancer and metabolic diseases. When we initiated this project, several studies suggested that inhibitors of HDAC 1-11 have anti-inflammatory activity. Yet, their influence on innate immune responses was largely uncharacterized. The present study was initiated to fill in this gap.In the first part of this work, we report the first comprehensive study of the effects of HDAC 1- 11 inhibitors on innate immune responses in vitro and in vivo. Strikingly, expression studies revealed that HDAC1-11 inhibitors act essentially as negative regulators of basal and microbial product- induced expression of critical immune receptors and antimicrobial products by mouse and human innate immune cells like macrophages and dendritic cells. Furthermore, we describe a new molecular mechanism whereby HDAC1-11 inhibitors repress pro-inflammatory cytokine expression through the induction of the expression and the activity of the transcriptional repressor Μί-2β. HDAC1-11 inhibitors also impair the potential of macrophages to engulf and kill bacteria. Finally, mice treated with an HDAC inhibitor are more susceptible to non-severe bacterial and fungal infection, but are protected against toxic and septic shock. Altogether these data support the concept that HDAC 1-11 inhibitors have potent anti-inflammatory and immunomodulatory activities in vitro and in vivo.Macrophage migration inhibitory factor (MIF) is a pro-inflammatory cytokine that plays a central role in innate immune responses, cell proliferation and oncogenesis. In the second part of this manuscript, we demonstrate that HDAC1-11 inhibitors inhibit MIF expression in vitro and in vivo and describe a novel molecular mechanism accounting for these effects. We propose that inhibition of MIF expression by HDAC 1-11 inhibitors may contribute to the antitumorigenic and anti-inflammatory effects of these drugs.NAD+ is an essential cofactor of sirtuins activity and one of the major sources of energy within the cells. Therefore, sirtuins link deacetylation to NAD+ metabolism and energy status. In the last part of this thesis, we report preliminary results indicating that a pharmacological inhibitor of SIRT1-2 drastically decreases pro-inflammatory cytokine production (RNA and protein) and interferes with MAP kinase intracellular signal transduction pathway in macrophages. Moreover, administration of the SIRT1-2 inhibitor protects mice from lethal endotoxic shock and septic shock.Overall, our studies demonstrate that inhibitors of HDAC1-11 and sirtuins are powerful anti-inflammatory molecules. Given their profound negative impact on the host antimicrobial defence response, these inhibitors might increase the susceptibility to opportunistic infections, especially in immunocompromised cancer patients. Yet, these inhibitors might be useful to control the inflammatory response in severely ill septic patients or in patients suffering from chronic inflammatory diseases.
Resumo:
RESUME : Bien que les propriétés physiques de la structure de l'ADN aient été intensivement étudiées pendant plus de 50 ans il y a encore beaucoup de questions importantes qui attendent des réponses. Par exemple, qu'arrive-t-il à la structure de la double hélice d'ADN nue (sans protéines liées) lorsqu'elle est fortement courbée, de la même manière que dans les nucléosomes? Cet ADN nu est-il facilement plié (il reste dans le régime élastique) ou réduit-il la contrainte de flexion en formant des sites hyperflexibles «kinks» (il sort du régime élastique en cassant l'empilement des paires de bases à certains endroits) ? La microscopie électronique peut fournir une réponse à cette question par visualisation directe des minicercles d'ADN de la longueur d'un tour de nucléosome (environ 90 paires de bases). Pour que la réponse soit scientifiquement valide, on doit observer les molécules d'ADN lorsqu'elles sont en suspension dans la solution d'intérêt et sans que des colorations, produits chimiques ou fixatifs n'aient été ajoutés, étant donné que ceux-ci peuvent changer les propriétés de l'ADN. La technique de la cryo-microscopie électronique (cryo-EM) développée par le groupe de Jacques Dubochet au début des années 80, permet la visualisation directe des molécules d'ADN suspendues dans des couche minces vitrifiées de solutions aqueuses. Toutefois, le faible contraste qui caractérise la cryo-EM combinée avec la très petite taille des minicercles d'ADN rendent nécessaire l'optimisation de plusieurs étapes, aussi bien dans la préparation des échantillons que dans le processus d'acquisition d'images afin d'obtenir deux clichés stéréo qui permettent la reconstruction 3-D des minicercles d'ADN. Dans la première partie de ma thèse, je décris l'optimisation de certains paramètres pour la cryoEM et des processus d'acquisition d'image utilisant comme objets de test des plasmides et d'autres molécules d'ADN. Dans la deuxième partie, je .décris comment j'ai construit les minicercles d'ADN de 94 bp et comment j'ai introduit des modifications structurelles comme des coupures ou des lacunes. Dans la troisième partie, je décris l'analyse des reconstructions des rninicercles d'ADN. Cette analyse, appuyée par des tests biochimiques, indique fortement que des molécules d'ADN sont capables de former de petites molécules circulaires de 94 bp sans dépasser les limites d'élasticité, indiquant que les minicercles adoptent une forme circulaire régulière où la flexion est redistribuée le long la molécule. ABSTRACT : Although physical properties of DNA structure have been intensively studied for over 50 years there are still many important questions that need to be answered. For example, what happens to protein-free double-stranded DNA when it is strongly bent, as in DNA forming nucleosomes? Is such protein-free DNA smoothly bent (i.e. it remains within elastic limits of DNA rigidity) or does it release its bending stress by forming sharp kinks (i.e. it exits the elastic regime and breaks the stacking between neighbouring base-pairs in localized regions)? Electron microscopy can provide an answer to this question by directly visualizing DNA minicircles that have the size of nucleosome gyres (ca 90 bp). For the answer to be scientifically valid, one needs to observe DNA molecules while they are still suspended in the solution of interest and no staining chemicals or fixatives have been added since these can change the properties of the DNA. CryoEM techniques developed by Jacques Dubochet's group beginning in the 1980's permit direct visualization of DNA molecules suspended in cryo-vitrified layers of aqueous solutions. However, a relatively weak contrast of cryo-EM preparations combined with the very small size of the DNA minicircles made it necessary to optimize many of the steps and parameters of the cryo-EM specimen preparation and image acquisition processes in order to obtain stereo-pairs of images that permit the 3-D reconstruction of the observed DNA minicircles. In the first part of my thesis I describe the optimization of the cryo-EM preparation and the image acquisition processes using plasmid size DNA molecules as a test object. In the second part, I describe how I formed the 94 by DNA minicircles and how I introduced structural modifications like nicks or gaps. In the third part, I describe the cryo-EM analysis of the constructed DNA minicircles. That analysis, supported by biochemical tests, strongly indicates that DNA minicircles as small as 94 by remain within the elastic limits of DNA structure, i.e. the minicircles adopt a regular circular shape where bending is redistributed along the molecules.
Resumo:
SUMMARY : Two-component systems are key mediators implicated in the response of numerous bacteria to a wide range of signals and stimuli. The two-component system comprised of the sensor kinase GacS and the response regulator GacA is broadly distributed among γ-proteobacteria bacteria and fulfils diverse functions such as regulation of carbon storage and expression of virulence. In Pseudomonas fluorescens, a soil bacterium which protects plants from root-pathogenic fungi and nematodes, the GacS/GacA two-component system has been shown to be essential for the production of secondary metabolites and exoenzymes required for the biocontrol activity of the bacterium. The regulatory cascade initiated by GacS/GacA consists of two translational repressor proteins, RsmA and RsmE, as well as three GacAcontrolled small regulatory RNAs RsmX, RsmY and RsmZ, which titrate RsmA and RsmE to allow the expression of biocontrol factors. Genetic analysis revealed that two additional sensor kinases termed RetS and Lads were involved as negative and positive control elements, respectively, in the Gac/Rsm pathway in P. fluoresens CHAO. Furthermore, it could be proposed that RetS and Lads interact with GacS, thereby modulating the expression of antibiotic compounds and hydrogen cyanide, as well as the rpoS gene encoding the stress and stationary phase sigma factor σ. Temperature was found to be an important environmental cue that influences the Gac/Rsm network. Indeed, the production of antibiotic compounds and hydrogen cyanide was reduced at 35°C, by comparison with the production at 30°C. RetS was identified to be involved in this temperature control. The small RNA RsmY was confirmed to be positively regulated by GacA and RsmA/RsmE. Two essential regions were identified in the rsmY promoter by mutational analysis, the upstream activating sequence (UAS) and the linker sequence. Although direct experimental evidence is still missing, several observations suggest that GacA may bind to the UAS, whereas the linker region would be recognized by intermediate RsmA/RsmEdependent repressors and/or activators. In conclusion, this work has revealed new elements contributing to the function of the signal transduction mechanisms in the Gac/Rsm pathway. RESUME : Les systèmes ä deux composants sont des mécanismes d'une importance notoire que beaucoup de bactéries utilisent pour faire face et répondre aux stimuli environnementaux. Le système à deux composants comprenant le senseur GacS et le régulateur de réponse GacA est très répandu chez les γ-protéobactéries et remplit des fonctions aussi diverses que la régulation du stockage de carbone ou l'expression de la virulence. Chez Pseudomonas fluorescens CHAO, une bactérie du sol qui protège les racines des plantes contre des attaques de champignons et nématodes pathogènes, le système à deux composants GacS/GacA est essentiel à la production de métabolites secondaires et d'exoenzymes requis pour l'activité de biocontrôle de la bactérie. La cascade régulatrice initiée pas GacS/GacA fait intervenir deux protéines répresseur de traduction, RsmA et RsmE, ainsi que trois petits ARNs RsmX, RsmY et RsmZ, dont la production est contrôlée par GacA. Ces petits ARNs ont pour rôle de contrecarrer l'action des protéines répressseur de la traduction, ce qui permet l'expression de facteurs de biocontrôle. Des analyses génétiques ont révélé la présence de deux senseurs supplémentaires, appelés Rets et Lads, qui interviennent dans la cascade Gac/Rsm de P. fluorescens. L'impact de ces senseurs est, respectivement, négatif et positif. Ces interactions ont apparenunent lieu au niveau de GacS et permettent une modulation de l'expression des antibiotiques et de l'acide cyanhydrique, ainsi que du gène rpoS codant pour le facteur sigma du stress. La température s'est révélée être un facteur environnemental important qui influence la cascade Gac/Rsm. Il s'avère en effet que la production d'antibiotiques ainsi que d'acide cyanhydrique est moins importante à 35°C qu'à 30°C. L'implication du senseur Rets dans ce contrôle par la température a pu être démontrée. La régulation positive du petit ARN RsmY par GacA et RsmA/RsmE a pu être confirmée; par le biais d'une analyse mutationelle, deux régions essentielles ont pu être mises en évidence dans la région promotrice de rsmY. Malgré le manque de preuves expérimentales directes, certains indices suggèrent que GacA puisse directement se fixer sur une des deux régions (appelée UAS), tandis que la deuxième région (appelée linker) serait plutôt reconnue par des facteurs intermédiaires (activateurs ou répresseurs) dépendant de RsmA/RsmE. En conclusion, ce travail a dévoilé de nouveaux éléments permettant d'éclairer les mécanismes de transduction des signaux dans la cascade Gac/Rsm.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Rapport de synthèseLe syndrome métabolique (défini par les critères ATP III par la présence au minimum de 3 des facteurs suivants : taux plasmatiques d'HDL-cholestérol < 1,04 mmol/1 chez l'homme et < 1.29 mmol/1 chez la femme, taux plasmatiques de triglycérides > 1,69 mmol/1, tension artérielle > 130/85 mmHg, glycémie >6,1 mmol/1, tour de taille > 108 cm chez l'homme et > 88 cm chez la femme) représente une constellation de facteurs de risque majeurs pour le développement de maladies cardiovascu-laires. Il n'est pas encore établi actuellement quelle composante de ce syndrome contribue de manière plus marquée au risque de développer une athérosclérose. Dans le but d'éclaircir la pathogenèse de ce syndrome, une étude multicentrique intitulée GEMS (« Genetic Epidemiology of Metabolic Syndrome ») a été initiée afin de déterminer si la constellation d'une dyslipidémie avec HDL-C bas et TG élevé est un marqueur sensible de l'homogénéité génétique chez les individus atteints de syndrome métabolique.Dans l'étude menée à Lausanne (multicentrique), la contribution de la dyslipidémie avec HDL-C bas et TG élevé dans la pathogenèse de l'athérosclérose a été évaluée par 2 examens, reconnus comme marqueurs fiables de la vasculopathie : la mesure de l'épaisseur intima média carotidienne par ultrasonographic et l'évaluation de la dysfonction endothéliale de la microcirculation cutanée. Deux groupes de sujets comparables en terme d'âge et de sexe et souffrant d'un excès pondéral (BMI > 25 kg/m2) mais normoglycémiques ont été comparés. Ces deux groupes (étude cas-témoins) étaient uniquement discordants quant à leurs profils lipidiques. Ainsi, 120 cas, définis comme ayant un HDL-cholestérol bas (< 25 percentile pour l'âge et le sexe dans la population générale) et des TG élevés (> 75 percentile) ont été comparés à 120 contrôles avec un HDL-cholestérol haut (> 50 percentile) et des TG bas (< 50 percentile). Un doppler des artères carotides et fémorales a été effectué pour déterminer l'épaisseur de l'intima média et la présence ou non de plaques d'athérome. La fonction endothéliale a été évaluée par un laser doppler sur la micro-circulation cutanée (réponse hyperémique à une occlusion transitoire de la circulation de l'avant-bras par une manchette à pression et mesure de la vasodilatation induite par un échauffement local de la peau avec de l'eau). Un enregistrement de la pression artérielle ambulatoire sur la journée (Remler) a été pratiqué chez tous les sujets.Les résultats obtenus montrent que les cas ont une prévalence plus élevée de plaques d'athérome (médiane 1,5 ± 0,15 vs 0,8 > 0,15, p<.001), une épaisseur intima média plus importante (médiane 0,66 ± 0,15 vs 0,61 ± 0,15, p<.01), ainsi qu'une réduction significative de la vasodilatation endothéliale induite par la chaleur et post-ischémique comparativement aux contrôles.En conclusion, le profil lipidique associant un HDL-cholestérol bas et des triglycérides élevés représente un risque majeur de développer une maladie athéromateuse périphérique et est associée à une augmentation de l'épaisseur intima média et une altération de la fonction endothéliale chez les individus en surcharge pondérale. Bien qu'un HDL-cholestérol bas soit fréquemment associé à une hypertriglycéridémie, les résultats de notre étude peuvent suggérer un rôle potentiel de la fraction HDL-cholestérol comme un puissant agent anti-athérogénique.
Resumo:
SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
AIM: Hyperglycaemia is now a recognized predictive factor of morbidity and mortality after coronary artery bypass grafting (CABG). For this reason, we aimed to evaluate the postoperative management of glucose control in patients undergoing cardiovascular surgery, and to assess the impact of glucose levels on in-hospital mortality and morbidity. METHODS: This was a retrospective study investigating the association between postoperative blood glucose and outcomes, including death, post-surgical complications, and length of stay in the intensive care unit (ICU) and in hospital. RESULTS: A total of 642 consecutive patients were enrolled into the study after cardiovascular surgery (CABG, carotid endarterectomy and bypass in the lower limbs). Patients' mean age was 68+/-10 years, and 74% were male. In-hospital mortality was 5% in diabetic patients vs 2% in non-diabetic patients (OR: 1.66, P=0.076). Having blood glucose levels in the upper quartile range (> or =8.8 mmol/L) on postoperative day 1 was independently associated with death (OR: 10.16, P=0.0002), infectious complications (OR: 1.76, P=0.04) and prolonged ICU stay (OR: 3.10, P<0.0001). Patients presenting with three or more hypoglycaemic episodes (<4.1 mmol/L) had increased rates of mortality (OR: 9.08, P<0.0001) and complications (OR: 8.57, P<0.0001). CONCLUSION: Glucose levels greater than 8.8 mmol/L on postoperative day 1 and having three or more hypoglycaemic episodes in the postoperative period were predictive of mortality and morbidity among patients undergoing cardiovascular surgery. This suggests that a multidisciplinary approach may be able to achieve better postoperative blood glucose control. Conclusion: Objectif: L'hyperglycémie a été reconnue comme facteur prédictif de morbidité et mortalité après un pontage aortocoronaire. Notre étude avait pour objectif d'évaluer la prise en charge postopératoire des glycémies chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire et d'évaluer l'impact de ces glycémies sur la mortalité et la morbidité intrahospitalières. Méthodes: Étude rétrospective recherchant une association entre la glycémie postopératoire et les complications postchirurgicales, la mortalité et la durée du séjour aux soins intensifs et à l'hôpital. Résultats: L'étude a été réalisée sur 642 patients qui avaient subi une intervention chirurgicale cardiovasculaire (ex. pontage aortocoronaire, endartérectomie de la carotide, pontage artériel des membres inférieurs). L'âge moyen est de 68 ± 10 ans et 74 % des patients étaient de sexe masculin. La mortalité intrahospitalière a été de 5 % parmi les patients diabétiques et 2 % chez les non-diabétiques (OR 1,66, p = 0,076). Les taux de glycémies situés dans le quartile supérieur (≥ 8,8 mmol/l) à j1 postopératoire sont associés de manière indépendante avec la mortalité (OR 10,16, 95 % CI 3,20-39,00, p = 0,0002), les complications infectieuses (OR 1,76, 95 % CI 1,02-3,00, p = 0,04) et la durée du séjour aux soins intensifs (OR 3,10, 95 % CI 1,83-5,38, p < 0,0001). Les patients qui avaient présenté trois hypoglycémies ou plus (< 4,1 mmol/l) ont présenté un taux augmenté de mortalité (OR 9,08, p ≤ 0,0001) et de complications (OR 8,57, p < 0,0001). Conclusion : Des glycémies supérieures à 8,8 mmol/l à j1 postopératoire et la présence de trois hypoglycémies ou plus en période postopératoire sont des facteurs prédictifs de mauvais pronostic chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire. Ainsi, une approche multidisciplinaire devrait être proposée afin d'obtenir un meilleur contrôle postopératoire des glycémies.
Resumo:
Resume : L'utilisation de l'encre comme indice en sciences forensiques est décrite et encadrée par une littérature abondante, comprenant entre autres deux standards de l'American Society for Testing and Materials (ASTM). La grande majorité de cette littérature se préoccupe de l'analyse des caractéristiques physiques ou chimiques des encres. Les standards ASTM proposent quelques principes de base qui concernent la comparaison et l'interprétation de la valeur d'indice des encres en sciences forensiques. L'étude de cette littérature et plus particulièrement des standards ASTM, en ayant a l'esprit les développements intervenus dans le domaine de l'interprétation de l'indice forensique, montre qu'il existe un potentiel certain pour l'amélioration de l'utilisation de l'indice encre et de son impact dans l'enquête criminelle. Cette thèse propose d'interpréter l'indice encre en se basant sur le cadre défini par le théorème de Bayes. Cette proposition a nécessité le développement d'un système d'assurance qualité pour l'analyse et la comparaison d'échantillons d'encre. Ce système d'assurance qualité tire parti d'un cadre théorique nouvellement défini. La méthodologie qui est proposée dans ce travail a été testée de manière compréhensive, en tirant parti d'un set de données spécialement créer pour l'occasion et d'outils importés de la biométrie. Cette recherche répond de manière convaincante à un problème concret généralement rencontré en sciences forensiques. L'information fournie par le criminaliste, lors de l'examen de traces, est souvent bridée, car celui-ci essaie de répondre à la mauvaise question. L'utilisation d'un cadre théorique explicite qui définit et formalise le goal de l'examen criminaliste, permet de déterminer les besoins technologiques et en matière de données. Le développement de cette technologie et la collection des données pertinentes peut être justifiées économiquement et achevée de manière scientifique. Abstract : The contribution of ink evidence to forensic science is described and supported by an abundant literature and by two standards from the American Society for Testing and Materials (ASTM). The vast majority of the available literature is concerned with the physical and chemical analysis of ink evidence. The relevant ASTM standards mention some principles regarding the comparison of pairs of ink samples and the evaluation of their evidential value. The review of this literature and, more specifically, of the ASTM standards in the light of recent developments in the interpretation of forensic evidence has shown some potential improvements, which would maximise the benefits of the use of ink evidence in forensic science. This thesis proposes to interpret ink evidence using the widely accepted and recommended Bayesian theorem. This proposition has required the development of a new quality assurance process for the analysis and comparison of ink samples, as well as of the definition of a theoretical framework for ink evidence. The proposed technology has been extensively tested using a large dataset of ink samples and state of the art tools, commonly used in biometry. Overall, this research successfully answers to a concrete problem generally encountered in forensic science, where scientists tend to self-limit the usefulness of the information that is present in various types of evidence, by trying to answer to the wrong questions. The declaration of an explicit framework, which defines and formalises their goals and expected contributions to the criminal and civil justice system, enables the determination of their needs in terms of technology and data. The development of this technology and the collection of the data is then justified economically, structured scientifically and can be proceeded efficiently.
Resumo:
La tesi esplora le possibilità di rinnovamento e di riconfigurazione del ruolo del docente di lingua e letteratura italiana e, più in generale, del ruolo stesso della letteratura all'interno dei sistemi educativi, si colloca necessariamente all'intersezione tra diversi settori di studio: ? la didattica della letteratura italiana, una disciplina giovane, i cui inizi si possono far risalire agli anni Sessanta-Settanta del secolo scorso, situata all'incrocio tra linguistica, italianistica e teoria della letteratura, che ha contribuito alla messa a punto di metodi e di strumenti per l'insegnamento della letteratura soprattutto nel contesto scolastico; ? l'informatica umanistica, la disciplina che si occupa dell'interazione tra la tecnologia e il sapere umanistico, sia dal punto di vista dell'utilizzo dei mezzi digitali per la ricerca (la produzione, la ricerca, la rappresentazione e la conservazione delle informazioni), sia da quello del ruolo dei saperi umanistici nella struttura epistemologica e nella storia della digitalizzazione; ? la tecnologia dell'educazione, che a partire dai primi mezzi di comunicazione elettrici e, poi, dall'invenzione del computer, ha sviluppato concetti e metodi per un approccio critico alle tecnologie utilizzate intenzionalmente con finalità didattiche, sia nelle attività di istruzione in aula, sia nelle attività cosiddette a distanza. A contatto con concetti e strumenti elaborati in questi ambiti, quindi, lo studioso di letteratura italiana dovrebbe mettere in discussione concetti e strumenti tipici della propria disciplina, riflettere sul proprio ruolo di ricercatore e di docente nella produzione e distribuzione di contenuti disciplinari per la formazione degli studenti e, infine, individuare strumenti operativi che gli consentano di assumere il controllo sui processi di apprendimento e sul complesso rapporto che essi intrattengono con l'insegnamento.
Hyperhomocysteinemia is independently associed with albuminuria in the population-based CoLaus study
Resumo:
L'homocystéine est un molécule potentiellement atherogénique et est considéré comme facteur de risque indépendant pour les maladies cardiovasculaires. Pour les patients avec une maladie rénale chronique ou en général avec une fonction rénale diminuée le taux d'homocystéine dans le sérum est élevé. L'acide urique est associé avec un risque augmenté de développer une maladie rénale et prédit la mortalité pour les patients avec une maladie rénale chronique. Le but de cette étude était d'évaluer l'association entre des taux sériques d'homocystéine élevés est la présence d'une fonction rénale diminuée, exprimé par une filtration glomérulaire diminuée ou une albuminurie dans une sélection de la population de Lausanne. Nous avons aussi investigué l'effet de l'acide urique sur cette relation. Pour évaluer si l'association entre l'homocystéine est l'albuminurie pourra être causal, nous avons en même temps investigué l'association entra l'albuminurie est le polymorphisme du gène de la methylènetetrafolate réductase (MTHFR) fortement corrélé avec les taux sériques de l'homocystéine. L'étude CoLaus est transversale et basée sur la population. Elle représente une sélection aléatoire, non stratifié de la population générale de la ville de Lausanne, Suisse, âgée 35-75 ans (n=56.694). 5913 personnes étaient incluses dans l'analyse. La prévalence de l'albuminurie augmente dans les catégories de taux sériques croissants d'homocystéine. L'acide urique est associé avec la concentration sérique de l'homocystéine. Hyperhomocystéinémie et des taux sérique d'acide urique augmentés sont associés avec l'albuminurie, indépendant de l'hypertonie et du diabète. Dans cette étude basée sur une large population, l'association entre des taux sérique elevés d'homocystéine et la prévalence augmentée de l'albuminurie est indépendante de la fonction glomérulaire, indiquant que cette association n'est pas simplement la conséquence de la fonction rénale réduite. Hyperhomocystéinémie est associé avec un risque doublé pour une albuminurie, ce qu'est similaire au risque associé à l'hypertonie ou au diabète type 2. Cette association est indépendante de l'acide urique. Ce résultat suggère que l'hyperhomocystéinémie est un marqueur indépendant des la dysfonction rénale. Individus avec le polymorphisme du MTHFR associé avec des concentrations sériques élevées d'homocystéine sont associé avec un risque augmenté pour une albuminurie. Tous ces résultats supportent l'hypothèse que l'homocystéine cause des dommages rénaux.
Resumo:
Continuation elleptique du Tristan en prose, qui s'inscrit dans l'interstice séparant la naissance de Tristan du remariage de Méliadus avec la fille du roi Hoël, le Roman de Meliadus (1235-1240) est une oeuvre fondamentalement ouverte, de par son inachèvement et de par le dialogue constant qu'il instaure avec les autres romans arthuriens. S'il revendique sa filiation et assume son statut de récit puîné, les réminiscences qu'il exhibe masquent aussi les gauchissements, les infléchissements qui lui permettent de faire du neuf avec du vieux. C'est ce jeu - aux deux sens du terme - que cette étude se propose de mettre en lumière et de voir fonctionner, non seulement dans le Roman de Meliadus proprement dit, mais également dans trois de ses relectures, qui actualisent et renouvellent la signification du roman en profondeur. La première est une continuation qui date de la toute fin du XIIIe ou du début du XIVe siècle et qui est aujourd'hui conservée par le seul manuscrit Ferrell 5. La deuxième actualisation retenue est celle qu'offre Meliadus de Leonnoys, l'imprimé publié en 1528 par Galliot du Pré, puis en 1532 par Denis Janot, fruit d'un minutieux travail de découpage et de remontage. La dernière enfin est l'extrait paru en 1776 dans la Bibliothèque Universelle des Romans sous le titre Méliadus de Léonnois. An ellipitic continuation of the Prose Tristan, which inscribes itself in the space separating the birth of Tristan from Meliadus' new marriage with king Hoël's daughter, the Meliadus' romance (1235-1240) is essentially an open text on account of its incompleteness and the dialogue it establishes with other arthurian romances. Even asserting filiation status, the reminiscences also show the reshaping and the inflection that allow the text to transform old into new. Analyzing this game is the central purpose of this work; to observe the operation in the Meliadus' romance, as well as in three of its recuperations that profoundly renew the significance of the novel; beginning with a continuation from the end of the 13th century or the early 14th century, preserved nowadays in only one manuscript (Ferrel 5); followed by the meticulous work of cutting and reassembling offered by the Meliadus of Leonnoys (printed by Galliot du Pré in 1528 first and again by Denis Janot in 1532) and finally an excerpt published in 1776 in the Bibliothèque Universelle des Romans with the title Méliadus of Leonnois.