438 resultados para Modèle probabiliste
Resumo:
Résumé En Suisse, les programmes de désaccoutumance au tabac se réfèrent généralement au modèle de préparation au changement de Prochaska et DiClemente (1983), Les patients atteints de maladies somatiques liées au tabagisme comme les pathologies cardiovasculaires ou pulmonaires accèdent facilement à ces programmes, contrairement aux patients présentant une dépendance à des drogues illicites. La prévalence de fumeurs dans cette population est pourtant élevée et les problèmes engendrés par le tabac sont importants, non seulement d'un point de vue individuel mais aussi en terme de santé publique. Il est par conséquent intéressant d'évaluer la motivation concernant la désaccoutumance au tabac de patients toxicomanes entreprenant un sevrage de drogues illicites. Dans cette étude, nous avons évalué les stades de préparation au changement concernant la dépendance au tabac chez 100 patients toxicomanes hospitalisés sur un mode volontaire dans le cadre d'un programme de sevrage à des drogues illégales. L'évaluation s'est faite à l'aide d'un auto-questionnaire dont les résultats indiquent qu'une minorité de patients sont décidés à interrompre la consommation de tabac. En effet, seul 15% des patients se trouvaient aux stades de contemplation ou de décision. De plus, 93% des sujets considéraient l'arrêt du tabac comme difficile ou très difficile. Ces données montrent qu'il existe un décalage important entre la motivation relative au sevrage de drogues illégales et la motivation liées à l'arrêt du tabac. En effet, malgré leur motivation élevée pour se sevrer de drogues illicites, la proportion de patients restant au stade de précontemplation concernant la désaccoutumance au tabac reste élevée. Diverses hypothèses permettent d'expliquer ces résultats, notamment la perception que la désaccoutumance au tabac est plus difficile à réaliser que le sevrage de substances illicites. Abstract Nicotine cessation programmes in Switzerland, which are commonly based on the stage of change model of Prochaska and DiClemente (1983), are rarely offered to patients with illicit drug dependence. This stands in contrast to the high smoking rates and the heavy burden of tobacco-related problems in these patients. The stage of change was therefore assessed by self-administered questionnaire in 100 inpatients attending an illegal drug withdrawal programme. Only 15% of the patients were in the contemplation or decision stage. 93% considered smoking cessation to be difficult or very difficult. These data show a discrepancy between the motivation to change illegal drug consumption habits and the motivation for smoking cessation. The high pro-portion of patients remaining in the precontemplation stage for smoking cessation, in spite of their motivation for illicit drug detoxification, may be due to the perception that cessation of smoking is more difficult than illicit drug abuse cessation.
Resumo:
L'urbanisme durable réinterprète et réinvente le modèle de la ville dense. Il reconsidère les avantages de la proximité et pense l'organisation des relations entre la forme urbaine, les fonctions, les usages et les significations de la ville dans une visée de production de la qualité urbaine. Qualifier la ville c'est inscrire de la valeur dans l'espace. C'est faire de la ville un « trésor d'espaces », donner vie aux quartiers, organiser la mobilité, agencer des noyaux d'urbanité différenciés afin d'intensifier leurs multiples valeurs d'usage (économiques, sociales, écologiques, esthétiques). L'intensité urbaine révèle forcément la présence humaine et la manière dont la ville est vécue, représentée, signifiée et appropriée par ses habitants. L'article explore la notion d'intensité comme outil pour une gestion adaptative des densités urbaines et des tensions qu'elles engendrent. C'est aussi un plaidoyer pour une densification régulée dans une ville plurielle, réticulaire et polycentrique.
Resumo:
L'Académie de Lausanne est la première école supérieure protestante implantée en territoire francophone. Lausanne constitue ainsi, dès les années 1540, un pôle de première importance dans le monde réformé. De nombreux savants protestants, attirés par la liberté de pratiquer leur foi et par la présence de l'Académie, s'établissent dans cette ville et des étudiants affluent de toute l'Europe. Les structures de l'Académie de Lausanne et son programme d'enseignement, fixés par un règlement daté de 1547, condensent sous une forme nouvelle les réflexions pédagogiques de la Renaissance. Ils constituent un modèle, direct ou indirect, pour toutes les Académies calvinistes fondées aux XVIème et XVIIème siècles, que ce soit à Genève, en France, en Allemagne, aux Pays-Bas, en Écosse, en Pologne ou encore aux États-Unis, dont les trois premiers Colleges, Harvard, William and Mary et Yale, se situent dans la même tradition. Malgré la place fondamentale qu'occupe l'Académie de Lausanne dans l'histoire de l'éducation protestante, la phase de création et de développement de cette institution était encore très mal connue. Cette thèse comble cette lacune de l'historiographie par la mise au jour et par l'analyse de nombreux documents, en grande partie inédits. Elle détruit bon nombre de préjugés entourant la mise en place et les buts de l'Académie de Lausanne à ses débuts. Ainsi, l'Académie de Lausanne n'est pas uniquement une école de pasteurs, comme il a souvent été affirmé jusqu'à ce jour, mais plus largement une institution offrant une formation d'un niveau très élevé dans les trois langues anciennes, (latin, grec et hébreu), en arts libéraux, en philosophie naturelle et morale, et en théologie. Au milieu du XVIème siècle, l'Académie lausannoise est capable de rivaliser avec les meilleures institutions pédagogiques de la Renaissance et d'attirer, dans un rayon très large, non seulement des étudiants qui se destinent au pastorat, mais aussi ceux qui sont formés pour gouverner leurs cités. Plus généralement, cette thèse, qui combine des approches d'histoire intellectuelle, d'histoire politique et d'histoire sociale, reconstitue et analyse les structures de l'Académie de Lausanne jusqu'à 1560, ainsi que ses fonctions éducatives, confessionnelles et politiques.
Resumo:
RÉSUMÉ En conjuguant les méthodes de l'histoire littéraire, de la sociologie des champs et de l'analyse littéraire, ce mémoire se propose d'étudier l'élaboration de la « posture » de Maurice Blanchot dans l'immédiat après-guerre (1944-1948). Le passé de Blanchot, marqué par des positions politiques d'extrême droite dans les années 30, et dans une certaine mesure encore sous l'Occupation, le conduit à un repositionnement conséquent dans le champ littéraire de la Libération marqué par l'Epuration des écrivains collaborateurs. Ce repositionnement se traduit par l'élaboration de la « posture » de l'écrivain en retrait, qui se présente comme la manifestation d'une autonomie littéraire radicale. Toutefois, cette posture du retrait demeure une forme de participation au champ littéraire et Blanchot, malgré sa volonté d'une parfaite autonomie de son oeuvre vis-à-vis des impératifs économiques ou idéologiques du temps, n'en est pas moins amené à réélaborer ses postulats critiques de même que sa production proprement dite (Le Très-Haut, L'Arrêt de mort), en interaction avec les nouvelles forces dominantes du champ littéraire de la Libération. Il est notamment conduit à se positionner vis-à-vis de la nouvelle avant-garde qui a émergé de la Résistance, dominée par Sartre et ses Temps Modernes, qui promeut un nouveau modèle, celui de l'écrivain engagé.
Resumo:
La contrefaçon de billets de banque a considérablement évolué avec l'apparition des technologies numériques de reproduction. Gouverné autrefois par des professionnels bien organisés, le phénomène de la contrefaçon n'est plus aujourd'hui l'apanage de quelques initiés mais est répandu dans une large communauté de faussaires. Les systèmes et les acteurs de la lutte contre la contrefaçon doivent s'adapter à ce nouveau modèle afin de pallier les impacts économiques, personnels et psychologiques de la contrefaçon sur la société. Au coeur des débats sociologiques et éthiques, les autorités politiques, les banques nationales, la police et les experts tentent d'endiguer le problème de façon parfois quelque peu inadéquate et obsolète. L'analyse de données statistiques permet de dégager les tendances actuelles et d'identifier les changements majeurs entre deux époques.
Resumo:
Chemotherapy is widely used as a systemic treatment modality in cancer patients and provides survival benefits for a significant fraction of treated patients H However, some patients suffer from cancer relapse and rapidly progress to metastasis, suggesting that following chemotherapy their residual tumor developed a more aggressive phenotype 4 5. Although some molecular mechanisms involved in chemo-resistance and chemotherapy-induced metastatic relapse have been reported, more investigations and understanding of these processes are necessary before any translation into the clinic might be considered. By using the syngeneic metastatic 4T1 murine breast cancer model, we observed that chemotherapy treatment and selection of chemotherapy-resistant cancer cells in vitro can induces two opposite phenotypes: a dormant one and a relapsing-metastatic one. Previous studies in our laboratory demonstrated that irradiation of mammary gland promotes tumor metastasis, at least in part, by inducing the recruitment of CD11b+ cells to both the primary tumor and the lungs at a pre-metastatic stage. In this study we found that CD11b+ cells may also play important roles in chemotherapy-induced tumor metastasis and dormancy in vivo. Tumor cells expressing the stem cell marker Sca-1 were enriched by chemotherapy treatment in vitro, as well as in tumor metastasis in vivo. Furthermore, tumor-derived CD11b+ cells were capable to maintain and expand this population in vitro. These results suggest that the expansion of a tumor cell population with stem cell features might be a mechanism by which chemotherapy induces metastasis. On the other hand, the same drug treatment in vitro generated resistant cells with a dormant phenotype. Dormant tumor cells were able to induce an in vivo immune- inflammatory response in the draining lymph node, which is normally absent due to the immunosuppressive effects of tumor-recruited myeloid derived- suppressor cells (MDSCs). Genome-wide gene expression analysis revealed the enrichment of invasion and metastasis-related genes in the relapsing metastatic tumor cells and immune response-related genes in the dormant tumor cells. Interestingly, CD11b+ cells derived from the microenvironment of growing-metastatic tumors, but not CD11b+ cells derived from the spleen of tumor-free mice, were able to instigate outgrowth of dormant tumor cells in vivo. Also, dormant cells formed growing and metastatic tumors when injected into immune-compromised NGS mice. These results point to a role of chemotherapy in enabling treated tumor cells to acquire immune response-inducing capabilities, while impairing the recruitment of CD11b+ cells and their differentiation into an immune-suppressive cell. The molecular mechanisms underneath these effects are being further investigated. In conclusion, results obtained in this model indicate that chemotherapy can induce a dormant phenotype in cancer cells and that this state of dormancy can be broken by MDSCs educated by relapsing tumors. Understanding the mechanism beyond these effects, in particular unraveling the genetic or epigenetic determinants of dormancy vs relapse, might open the way to therapies aimed and maintaining residual cells escaping chemotherapy in a state of sustained dormancy. - La chimiothérapie est un traitement systémique largement utilisé chez les patients cancéreux qui donne un avantage de survie significatif pour une bonne partie de patients traités (1-3). Cependant, certains patients souffrent d'une rechute et progressent ensuite vers la métastase. Ceci suggère que leur tumeur résiduelle a développé un phénotype agressif suite à la chimiothérapie (4-5). Bien que certains mécanismes moléculaires impliqués dans la chimiorésistance et la rechute métastatique ont été identifiés, d'avantage d'études sont nécessaires afin de mieux comprendre ce phénomène et de développer des nouvelles thérapies cliniques. En utilisant un modèle syngénique de cancer du sein métastatique chez la sourie (4T1), nous avons observé que la sélection des cellules cancéreuses résistantes à la chimiothérapie in vitro peut induire deux phénotypes opposés: un phénotype de dormance et un phénotype de progression métastatique. Une étude précédente issue de notre laboratoire a démontré que l'irradiation de la glande mammaire favorise la métastase de tumeurs recourants suite au recrutement de cellules CD11b+ dans la tumeur primaire et dans les poumons pré-métastatiques. Dans notre étude nous avons constaté que les cellules CD11b+ peuvent également jouer un rôle important dans la formation de métastases induites par la chimiothérapie ainsi que dans le maintien de la dormance in vivo. Nous avons également observé un enrichissement de cellules tumorales exprimant le marqueur de cellule souche Sca-1 parmi les cellules tumorales résistantes à la chimiothérapie et dans les cellules qui on formé des métastases in vivo. Des cellules CD11b+ dérivées du microenvironnement tumorale favorisent l'expansion de la population de cellules tumorales Sca-1+ in vitro. Ces résultats suggèrent que l'expansion d'une population de cellules tumorales avec des caractéristiques de cellules souches pourrait constituer un mécanisme par lequel la chimiothérapie induit des métastases dans des tumeurs récurrentes. D'autre part le même traitement de chimiothérapie peut générer des cellules résistantes avec un phénotype dormant. Les expériences in vivo indiquent que les cellules tumorales dormantes induisent une réponse immunitaire inflammatoire dans le ganglion lymphatique de drainage, qui est normalement réprimée par des cellules myéloïdes suppressives de tumeur (MDSC). Une analyse d'expression de gènes a révélé l'enrichissement de gènes liés à l'invasion et à la métastase dans les cellules tumorales récurrentes et des gènes liés à la réponse immunitaire dans les cellules tumorales dormantes. Les cellules CD11b+ issues du microenvironnement des tumeurs récurrents ont incité la croissance des cellules tumorales dormantes in vivo, tandis que les cellules CD11b+ dérivées de la rate de souris non porteuses de tumeur ne l'étaient pas. Les mécanismes moléculaires sous-jacents restent à découvrir. En conclusion, les résultats obtenus dans ce modèle indiquent que la chimiothérapie pourrait favoriser non seulement l'induction d'une dormance cellulaire, mais également que les cellules dormantes seraient adroits de induire une réponse immunitaire capable les maintenir dans un état de dormance prolongé. Un déséquilibre dans cette réponse immunitaire pourrait des lors briser cet état de dormance et induire une progression tumorale. Comprendre les mécanismes responsables de ces effets, en particulier l'identification des déterminants génétiques ou épigénétiques liés à la dormance vs la rechute, pourraient ouvrir la voie à des nouvelles thérapies visant le maintien d'un état de dormance permanente des cellules résiduelles après chimiothérapie.
Resumo:
Ce document présente le modèe utilisé par le Service de la santé publique du canton de Vaud pour l'estimation du nombre de lits de court séjour et propose un enrichissement de ce modèle par l'utilisation de la statistique médicale VESKA. L'exemple présenté est celui de l'obstétrique, mais vaut pour d'autres secteurs de l'activité médico-hospitalières.
Resumo:
Summary: Global warming has led to an average earth surface temperature increase of about 0.7 °C in the 20th century, according to the 2007 IPCC report. In Switzerland, the temperature increase in the same period was even higher: 1.3 °C in the Northern Alps anal 1.7 °C in the Southern Alps. The impacts of this warming on ecosystems aspecially on climatically sensitive systems like the treeline ecotone -are already visible today. Alpine treeline species show increased growth rates, more establishment of young trees in forest gaps is observed in many locations and treelines are migrating upwards. With the forecasted warming, this globally visible phenomenon is expected to continue. This PhD thesis aimed to develop a set of methods and models to investigate current and future climatic treeline positions and treeline shifts in the Swiss Alps in a spatial context. The focus was therefore on: 1) the quantification of current treeline dynamics and its potential causes, 2) the evaluation and improvement of temperaturebased treeline indicators and 3) the spatial analysis and projection of past, current and future climatic treeline positions and their respective elevational shifts. The methods used involved a combination of field temperature measurements, statistical modeling and spatial modeling in a geographical information system. To determine treeline shifts and assign the respective drivers, neighborhood relationships between forest patches were analyzed using moving window algorithms. Time series regression modeling was used in the development of an air-to-soil temperature transfer model to calculate thermal treeline indicators. The indicators were then applied spatially to delineate the climatic treeline, based on interpolated temperature data. Observation of recent forest dynamics in the Swiss treeline ecotone showed that changes were mainly due to forest in-growth, but also partly to upward attitudinal shifts. The recent reduction in agricultural land-use was found to be the dominant driver of these changes. Climate-driven changes were identified only at the uppermost limits of the treeline ecotone. Seasonal mean temperature indicators were found to be the best for predicting climatic treelines. Applying dynamic seasonal delimitations and the air-to-soil temperature transfer model improved the indicators' applicability for spatial modeling. Reproducing the climatic treelines of the past 45 years revealed regionally different attitudinal shifts, the largest being located near the highest mountain mass. Modeling climatic treelines based on two IPCC climate warming scenarios predicted major shifts in treeline altitude. However, the currently-observed treeline is not expected to reach this limit easily, due to lagged reaction, possible climate feedback effects and other limiting factors. Résumé: Selon le rapport 2007 de l'IPCC, le réchauffement global a induit une augmentation de la température terrestre de 0.7 °C en moyenne au cours du 20e siècle. En Suisse, l'augmentation durant la même période a été plus importante: 1.3 °C dans les Alpes du nord et 1.7 °C dans les Alpes du sud. Les impacts de ce réchauffement sur les écosystèmes - en particuliers les systèmes sensibles comme l'écotone de la limite des arbres - sont déjà visibles aujourd'hui. Les espèces de la limite alpine des forêts ont des taux de croissance plus forts, on observe en de nombreux endroits un accroissement du nombre de jeunes arbres s'établissant dans les trouées et la limite des arbres migre vers le haut. Compte tenu du réchauffement prévu, on s'attend à ce que ce phénomène, visible globalement, persiste. Cette thèse de doctorat visait à développer un jeu de méthodes et de modèles pour étudier dans un contexte spatial la position présente et future de la limite climatique des arbres, ainsi que ses déplacements, au sein des Alpes suisses. L'étude s'est donc focalisée sur: 1) la quantification de la dynamique actuelle de la limite des arbres et ses causes potentielles, 2) l'évaluation et l'amélioration des indicateurs, basés sur la température, pour la limite des arbres et 3) l'analyse spatiale et la projection de la position climatique passée, présente et future de la limite des arbres et des déplacements altitudinaux de cette position. Les méthodes utilisées sont une combinaison de mesures de température sur le terrain, de modélisation statistique et de la modélisation spatiale à l'aide d'un système d'information géographique. Les relations de voisinage entre parcelles de forêt ont été analysées à l'aide d'algorithmes utilisant des fenêtres mobiles, afin de mesurer les déplacements de la limite des arbres et déterminer leurs causes. Un modèle de transfert de température air-sol, basé sur les modèles de régression sur séries temporelles, a été développé pour calculer des indicateurs thermiques de la limite des arbres. Les indicateurs ont ensuite été appliqués spatialement pour délimiter la limite climatique des arbres, sur la base de données de températures interpolées. L'observation de la dynamique forestière récente dans l'écotone de la limite des arbres en Suisse a montré que les changements étaient principalement dus à la fermeture des trouées, mais aussi en partie à des déplacements vers des altitudes plus élevées. Il a été montré que la récente déprise agricole était la cause principale de ces changements. Des changements dus au climat n'ont été identifiés qu'aux limites supérieures de l'écotone de la limite des arbres. Les indicateurs de température moyenne saisonnière se sont avérés le mieux convenir pour prédire la limite climatique des arbres. L'application de limites dynamiques saisonnières et du modèle de transfert de température air-sol a amélioré l'applicabilité des indicateurs pour la modélisation spatiale. La reproduction des limites climatiques des arbres durant ces 45 dernières années a mis en évidence des changements d'altitude différents selon les régions, les plus importants étant situés près du plus haut massif montagneux. La modélisation des limites climatiques des arbres d'après deux scénarios de réchauffement climatique de l'IPCC a prédit des changements majeurs de l'altitude de la limite des arbres. Toutefois, l'on ne s'attend pas à ce que la limite des arbres actuellement observée atteigne cette limite facilement, en raison du délai de réaction, d'effets rétroactifs du climat et d'autres facteurs limitants.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.
Resumo:
Résumé Introduction: La perfusion isolée cytostatique du poumon est une technique attractive qui permet l'administration des doses élevées d'un agent cytostatique tout en épargnant dans la mesure du possible la circulation systémique. Cependant, la perfusion de l'artère pulmonaire risque d'épargner le territoire pulmonaire vascularisé par l'intermédiaire des artères bronchiques, ce qui pourrait diminuer l'efficacité de ce traitement au cas où la lésion ciblée est vascularisée par les artères bronchiques. Ce travail est destiné au développement d'un modèle tumoral au niveau des poumons de rongeur (rat) porteur d'un sarcome pulmonaire afin de déterminer si la voie d'injection des cellules tumorales (intraveineuse, versus intratumorale) influencera la vascularisation des tumeurs (provenant du système artères pulmonaires ou artères bronchiques). Méthod: Des tumeurs de sarcomes pulmonaires ont été générées par injection d'une suspension cellulaire de sarcome, soit par injection intraveineuse, soit directement dans le parenchyme pulmonaire par thoracotomie. Ensuite, une perfusion isolée du poumon porteur de la tumeur à l'aide de l'encre a été effectuée, soit par l'artère pulmonaire, soit par le système des artères bronchiques. La distribution de l'encre dans les vaisseaux tumoraux ainsi que dans les vaisseaux non tumoraux du poumon adjacent a été investiguée à l'aide d'une analyse histologique des poumons perfusés. Résultat: L'administration intraveineuse et intratumorale de la suspension de cellules tumorales résulte en des tumeurs similaires sur le plan histologique. Néanmoins, l'injection intra-parenchymateuse démontre des tumeurs plus homogènes et avec un développement plus prédictible, était associée à une survie plus longue qu'après injection intraveineuse. Les analyses histologiques après perfusion isolée à l'aide de l'encre démontre que les tumeurs résultant de l'injection intraveineuse ont développé une vascularisation se basant sur le système d'artères pulmonaires tandis que les tumeurs émergeant après injection intraparenchymateuse ont développé une vascularisation provenant du système des artères bronchiques. Conclusion: Ce travail démontre pour la première fois l'importance du mode de génération de tumeurs pulmonaires en ce qui concerne leur future vascularisation, ce qui pourrait avoir un impact sur leur traitement par perfusion isolée du poumon. Abstract Isolated cytostatic lung perfusion (ILP) is an attractive technique allowing delivery of a high-dose of cytostatic agents to the lungs while limiting systemic toxicity. In developing a rat model of ILP, we have analysed the effect of the route of tumour cell injection on the source of tumour vessels. Pulmonary sarcomas were estab¬lished by injecting a sarcoma cell suspension either by the intravenous (i.v.) route or directly into the lung paren¬chyma. Ink perfusion through either pulmonary artery (PA) or bronchial arteries (BA) was performed and the characteristics of the tumour deposits defined. i.v. and direct injection methods induced pulmonary sarcoma nodules, with similar histological features. The intraparenchymal injection of tumour cells resulted in more reli¬able and reproducible tumour growth and was associat¬ed with a longer survival of the animals. i.v. injected tumours developed a PA-derived vascular tree whereas directly injected tumours developed a BA-derived vasculature.
Resumo:
L'étude de l'alliance familiale entre père, mère et nourrisson peut servir de modèle pour comprendre les conditions qui favorisent ou défavorisent la formation de l'alliance thérapeutique entre un thérapeute et un couple ou d'autres systèmes plus complexes. La communication implicite qui passe par les signaux affectifs y joue un rôle fondamental. Nos recherches ont montré quel 'analyse des épisodes de sourires à trois est une voie d'entrée pour l'évaluation de l'alliance père-mère-nourrisson et l'alliance thérapeute-couple.