648 resultados para Données génétiques
Resumo:
SUMMARY : Two-component systems are key mediators implicated in the response of numerous bacteria to a wide range of signals and stimuli. The two-component system comprised of the sensor kinase GacS and the response regulator GacA is broadly distributed among γ-proteobacteria bacteria and fulfils diverse functions such as regulation of carbon storage and expression of virulence. In Pseudomonas fluorescens, a soil bacterium which protects plants from root-pathogenic fungi and nematodes, the GacS/GacA two-component system has been shown to be essential for the production of secondary metabolites and exoenzymes required for the biocontrol activity of the bacterium. The regulatory cascade initiated by GacS/GacA consists of two translational repressor proteins, RsmA and RsmE, as well as three GacAcontrolled small regulatory RNAs RsmX, RsmY and RsmZ, which titrate RsmA and RsmE to allow the expression of biocontrol factors. Genetic analysis revealed that two additional sensor kinases termed RetS and Lads were involved as negative and positive control elements, respectively, in the Gac/Rsm pathway in P. fluoresens CHAO. Furthermore, it could be proposed that RetS and Lads interact with GacS, thereby modulating the expression of antibiotic compounds and hydrogen cyanide, as well as the rpoS gene encoding the stress and stationary phase sigma factor σ. Temperature was found to be an important environmental cue that influences the Gac/Rsm network. Indeed, the production of antibiotic compounds and hydrogen cyanide was reduced at 35°C, by comparison with the production at 30°C. RetS was identified to be involved in this temperature control. The small RNA RsmY was confirmed to be positively regulated by GacA and RsmA/RsmE. Two essential regions were identified in the rsmY promoter by mutational analysis, the upstream activating sequence (UAS) and the linker sequence. Although direct experimental evidence is still missing, several observations suggest that GacA may bind to the UAS, whereas the linker region would be recognized by intermediate RsmA/RsmEdependent repressors and/or activators. In conclusion, this work has revealed new elements contributing to the function of the signal transduction mechanisms in the Gac/Rsm pathway. RESUME : Les systèmes ä deux composants sont des mécanismes d'une importance notoire que beaucoup de bactéries utilisent pour faire face et répondre aux stimuli environnementaux. Le système à deux composants comprenant le senseur GacS et le régulateur de réponse GacA est très répandu chez les γ-protéobactéries et remplit des fonctions aussi diverses que la régulation du stockage de carbone ou l'expression de la virulence. Chez Pseudomonas fluorescens CHAO, une bactérie du sol qui protège les racines des plantes contre des attaques de champignons et nématodes pathogènes, le système à deux composants GacS/GacA est essentiel à la production de métabolites secondaires et d'exoenzymes requis pour l'activité de biocontrôle de la bactérie. La cascade régulatrice initiée pas GacS/GacA fait intervenir deux protéines répresseur de traduction, RsmA et RsmE, ainsi que trois petits ARNs RsmX, RsmY et RsmZ, dont la production est contrôlée par GacA. Ces petits ARNs ont pour rôle de contrecarrer l'action des protéines répressseur de la traduction, ce qui permet l'expression de facteurs de biocontrôle. Des analyses génétiques ont révélé la présence de deux senseurs supplémentaires, appelés Rets et Lads, qui interviennent dans la cascade Gac/Rsm de P. fluorescens. L'impact de ces senseurs est, respectivement, négatif et positif. Ces interactions ont apparenunent lieu au niveau de GacS et permettent une modulation de l'expression des antibiotiques et de l'acide cyanhydrique, ainsi que du gène rpoS codant pour le facteur sigma du stress. La température s'est révélée être un facteur environnemental important qui influence la cascade Gac/Rsm. Il s'avère en effet que la production d'antibiotiques ainsi que d'acide cyanhydrique est moins importante à 35°C qu'à 30°C. L'implication du senseur Rets dans ce contrôle par la température a pu être démontrée. La régulation positive du petit ARN RsmY par GacA et RsmA/RsmE a pu être confirmée; par le biais d'une analyse mutationelle, deux régions essentielles ont pu être mises en évidence dans la région promotrice de rsmY. Malgré le manque de preuves expérimentales directes, certains indices suggèrent que GacA puisse directement se fixer sur une des deux régions (appelée UAS), tandis que la deuxième région (appelée linker) serait plutôt reconnue par des facteurs intermédiaires (activateurs ou répresseurs) dépendant de RsmA/RsmE. En conclusion, ce travail a dévoilé de nouveaux éléments permettant d'éclairer les mécanismes de transduction des signaux dans la cascade Gac/Rsm.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
The 2009 news in medicine regarding dependence confirm the bio-psycho-social field of addiction medicine and psychiatry. First a statement is made about the risk of cardiac arythmy in opioid substitution treatments. Then a review of the treatment of C hepatitis shows its importance in an addicted population. In the field of cognitive neuroscience, progress has been made in the knowledge of "craving" and of its endophenotypical components. Electronic medias related disorders are on the border of addiction: a case study is exploring this new domain. At last, recent datas are presented on the relationship between cannabis and psychosis. Les nouveautés en médecine 2009 concernant les dépendances confirment l'étendue du champ bio-psychosocial de la médecine et de la psychiatrie de l'addiction. Tout d'abord un point de situation est fait sur le risque d'arythmie cardiaque dans les traitements de substitution opiacée. Puis une revue de l'actualité du traitement de l'hépatite C dans la toxicodépendance en montre la pertinence. Sur le plan de la recherche plus fondamentale, les neurosciences cognitives progressent dans l'approche de la nature du craving et de ses composantes endophénotypiques. Les troubles liés aux médias électroniques illustrent les frontières de l'addiction : une étude de cas vient en explorer le contenu. Enfin, des données récentes sur les rapports entre cannabis et psychoses sont présentées.
Resumo:
[TABLE DES MATIERES] 1 Résumé des travaux effectues ( Méthode. - Résultats. - Conclusion). - 2 Introduction. - 3 But et objectifs. - 4 Contexte. - 5 Méthode (Type d'étude. - Bases de données consultées. - Base des missions engagées par la Centrale 144 Vaud (référencée sous « base 144 »). - Base des missions ambulancières effectuées sur territoire vaudois (référencée sous « base AMB »). - Base des missions SMUR effectuées par les SMUR du Canton de Vaud (référencée sous « base SMUR »). - Définitions et descriptions des variables. - Analyses statistiques). - 6 Résultats (Préambule - difficultés rencontrées. - Evaluation du processus d'enregistrement. - Couverture d'enregistrement des missions. - Evaluation de la qualité du remplissage des fiches de missions. - Indicateurs de l'activité des services d'urgence pré hospitalière terrestres - évolution sur la période 2000-2010. - APPELS AU 144. - Volume d'activité des ambulances et des SMUR. - Démographie de la population prise en charge par les ambulances et par les SMUR. - Types de missions ambulances et SMUR. - Chronologie des missions ambulances et SMUR. - Lieux de prise en charge et orientation des missions ambulances et SMUR. - Devenir immédiat des patients pris en charge par le SMUR. - Devenir a 48h des patients pris en charge par les SMUR). - 7 Suite des analyses (Etude de l'adéquation de l'utilisation des services d'urgence pré hospitalière. - Etude de l'adéquation des soins prodigués sur le lieu de la mission. - Etude de l'adéquation de la durée des interventions pour les prises en charges de maladies cardio-vasculaires et cérébro-vasculaires). - 8 Discussion. - conclusions. - propositions . - 9 Références
Evaluation de l'efficacité d'un entraînement métacognitif chez des adolescents souffrant de psychose
Resumo:
Contexte :¦La formation et le maintien d'idées délirantes et des hallucinations, qui sont des symptômes clé de la psychose, s'expliquent en partie par la présence de biais cognitifs. La faisabilité, l'adhérence au traitement, l'utilité subjective et également l'efficacité d'un entraînement métacognitif (EMC) permettant de corriger ces biais cognitifs ont été démontrées chez des adultes schizophrènes. Par contre, aucune étude ne s'est intéressée à ces aspects dans une population adolescente atteinte de psychose.¦Objectifs : Déterminer la faisabilité d'un EMC et son effet bénéfique présumé sur les symptômes psychotiques et dépressifs, le fonctionnement social et l'estime de soi chez des adolescents psychotiques.¦Méthode :¦La présente étude porte sur 5 adolescents fréquentant le Centre Thérapeutique de Jour pour Adolescents de Lausanne (CTJA), âgés de 16 à 18 ans, souffrant de psychose. L'intervention effectuée est un EMC correspondant à 2x8 modules en groupe, d'une durée de 45 à 60 minutes, à une fréquence d'une fois par semaine. La mesure de l'efficacité des modules emploie l'échelle Positive And Negative Syndrome Scale (PANSS), l'Echelle Globale de Fonctionnement Social (SOFAS), l'estime de soi de Rosenberg, l'échelle de dépression de Calgary et le Health of Nation Outcome Scale for Children and Adolescent (HoNOSCA). Le groupe contrôle (GC) est formé de 9 adolescents de 13 à 17 ans du CTJA atteints de psychose et ayant suivi un programme de remédiation cognitive sans participation à l'EMC.¦Résultats :¦L'EMC est praticable sur des adolescents atteints de psychose. L'adhérence est mitigée et mérite une souplesse dans l'adaptation du calendrier des séances selon la disponibilité des participants. L'EMC possède globalement la même efficacité que la remédiation cognitive dans le domaine des symptômes psychotiques et dépressifs, le fonctionnement social et l'estime de soi.¦Conclusions :¦L'EMC représente une alternative intéressante et/ou un bon complément de traitement, permettant de réduire les symptômes psychotiques et dépressifs et d'améliorer le fonctionnement social et l'estime de soi. De futures études à plus large échelle devraient être entreprises afin de confirmer cette conclusion et étoffer les données spécifiques à cette population.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
Objectifs: Etudier les résultats techniques et cliniques de l'embolisation des hématomes musculaires spontanés de l'abdomen . Caractériser les hématomes ayant étéembolisés au CT et définir les éventuels critères cliniques et anatomiques pour une embolisation . Etudier la relation entre les hématomes embolisés et lesanticoagulants.Matériels et méthodes: Etude rétrospective des patients ayant bénéficié d'une embolisation pour un hématome musculaire abdominopelvien spontané entre 2005 et 2010. Sont analysésles données cliniques (anticaogulants, retentissement hémodynamqiue), les données scanographiques (site, volume, saignement actif), les artères embolisées etle type d'embol, le résultat clinique immédiat, les complications et la mortalité en cours d'hospitalisation .Résultats: 28 patients (âge moyen 75 ans) ont été embolisés. Tous les patients avaient un traitement anticoagulant et/ou antiplaquettaire. La majorité des hématomesembolisés concernaient le muscle grand droit de l'abdomen. Le saignement actif n'était pas identifié chez tous les patients au CT. Pas de complication immédiaterapportée. Le succès technique était de 98%. Pas de récidive précoce rapportée y compris après réintroduction du traitement anticaogulant.Conclusion: L'embolisation hémostatique des hématomes musculaires spontanés sous anticoagulants est efficace pour contrôler le saignement et permettre la réintroductiondu traitement anticoagulant.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.
Resumo:
Resume : L'utilisation de l'encre comme indice en sciences forensiques est décrite et encadrée par une littérature abondante, comprenant entre autres deux standards de l'American Society for Testing and Materials (ASTM). La grande majorité de cette littérature se préoccupe de l'analyse des caractéristiques physiques ou chimiques des encres. Les standards ASTM proposent quelques principes de base qui concernent la comparaison et l'interprétation de la valeur d'indice des encres en sciences forensiques. L'étude de cette littérature et plus particulièrement des standards ASTM, en ayant a l'esprit les développements intervenus dans le domaine de l'interprétation de l'indice forensique, montre qu'il existe un potentiel certain pour l'amélioration de l'utilisation de l'indice encre et de son impact dans l'enquête criminelle. Cette thèse propose d'interpréter l'indice encre en se basant sur le cadre défini par le théorème de Bayes. Cette proposition a nécessité le développement d'un système d'assurance qualité pour l'analyse et la comparaison d'échantillons d'encre. Ce système d'assurance qualité tire parti d'un cadre théorique nouvellement défini. La méthodologie qui est proposée dans ce travail a été testée de manière compréhensive, en tirant parti d'un set de données spécialement créer pour l'occasion et d'outils importés de la biométrie. Cette recherche répond de manière convaincante à un problème concret généralement rencontré en sciences forensiques. L'information fournie par le criminaliste, lors de l'examen de traces, est souvent bridée, car celui-ci essaie de répondre à la mauvaise question. L'utilisation d'un cadre théorique explicite qui définit et formalise le goal de l'examen criminaliste, permet de déterminer les besoins technologiques et en matière de données. Le développement de cette technologie et la collection des données pertinentes peut être justifiées économiquement et achevée de manière scientifique. Abstract : The contribution of ink evidence to forensic science is described and supported by an abundant literature and by two standards from the American Society for Testing and Materials (ASTM). The vast majority of the available literature is concerned with the physical and chemical analysis of ink evidence. The relevant ASTM standards mention some principles regarding the comparison of pairs of ink samples and the evaluation of their evidential value. The review of this literature and, more specifically, of the ASTM standards in the light of recent developments in the interpretation of forensic evidence has shown some potential improvements, which would maximise the benefits of the use of ink evidence in forensic science. This thesis proposes to interpret ink evidence using the widely accepted and recommended Bayesian theorem. This proposition has required the development of a new quality assurance process for the analysis and comparison of ink samples, as well as of the definition of a theoretical framework for ink evidence. The proposed technology has been extensively tested using a large dataset of ink samples and state of the art tools, commonly used in biometry. Overall, this research successfully answers to a concrete problem generally encountered in forensic science, where scientists tend to self-limit the usefulness of the information that is present in various types of evidence, by trying to answer to the wrong questions. The declaration of an explicit framework, which defines and formalises their goals and expected contributions to the criminal and civil justice system, enables the determination of their needs in terms of technology and data. The development of this technology and the collection of the data is then justified economically, structured scientifically and can be proceeded efficiently.
Resumo:
Le but de mon travail de master est de présenter les résultats à une année postopératoire d'une étude prospective sur une nouvelle prothèse totale du genou : la F.I.R.S.T. Evolution. Cette prothèse s'intéresse à des patients plus jeunes, avec une importante laxité des ligaments collatéraux. L'étude finale suivra à cinq ans une cohorte de cinquante patients environ. Actuellement, nous suivons 17 patients opérés avec cette prothèse (dont 9 femmes et 8 hommes, 9 genoux droits et 8 genoux gauches) avec un âge moyen de 69,10 ans (de 42 à 83 ans). Pour l'obtention des résultats, les patients ont remplis des questionnaires spécifiques couramment utilisés (Eq5D, WOMAC, KSS, échelle analogique de la douleur EVA/VAS, UCLA activity-rating level), ont bénéficié de contrôles radiologiques réguliers et d'une analyse régulière de la marche, à trois vitesses différentes. Cette analyse est objective et se base sur un système de capteurs miniaturisés. Les résultats cliniques obtenus à une année démontrent une amélioration globale de la fonction du genou et de la qualité de vie perçue par le patient (Eq5D, WOMAC, EVA/VAS, KSS, UCLA). Les données à une année de l'analyse de marche montrent une amélioration significative dans tous les paramètres du cycle de marche et aux différentes vitesses. En comparant nos résultats avec ceux précédemment obtenus, nous pouvons être satisfaits car ils se sont améliorés depuis la dernière échéance à 6 mois. De plus, nos résultats à une année suivent ceux obtenus dans d'autres études utilisant les mêmes questionnaires et une analyse objective de la marche. On s'attend à ce que ces données se stabilisent voire continuent de s'améliorer dans les années à venir.
Resumo:
De part son expérience dans la surveillance et l'évaluation, ses compétences dans le domaine de la santé sexuelle et reproductive ainsi que son ancrage dans un large réseau de partenaires, l'Institut universitaire de médecine sociale et préventive (IUMSP) a été chargé par le Service de la santé publique (SSP) du Département de la santé et de l'action sociale (DSAS) de réaliser le suivi statistique des interruptions de grossesse effectuées dans le canton de Vaud. Le mandat prévoit en particulier que l'IUMSP : collecte les formulaires de déclaration d'interruption de grossesse transmis directement à l'IUMSP par les médecins (gynécologues-obstétriciens) et gère la qualité des informations transmises ; saisisse ces informations dans une base de données informatique ; produise un rapport annuel sur l'évolution des recours à l'interruption de grossesse dans le canton de Vaud ; participe aux discussions sur les orientations de prévention découlant des analyses statistiques et collabore à la diffusion écrite des résultats auprès des publics cibles concernés.Ce rapport présente les données relatives à l'année 2012. Il décrit en outre les tendances observées depuis 2003, première année de mise en application complète du nouveau cadre légal et de la modification du système de déclaration (cf. section 2.2).A des fins de synthèse, les données essentielles sont présentées dans le corps du texte et les analyses plus détaillées sont présentées dans des tableaux supplémentaires inclus en annexe.
Resumo:
Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.
Resumo:
Les recherches sur les croyances ont notoirement accrédité la théorie de l'individualisation de la religion. En réduisant nolens volens la religion à un croire, elles ont contribué à cette interprétation reprise à l'envi par les médias. Sans totalement renier cette perspective, nous explorons ci-après l'hypothèse de la dualisation de la religion en modernité tardive. Elle nous paraît mieux à même de rendre compte d'un processus complexe de changement qui articule religion traditionnelle et religion commune sans forcément les opposer. A l'aide des données empruntées à nos recherches de 1989 et 1999, nous essayons de montrer comment la culture travaille le champ religieux dans le vens annoncé.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.