455 resultados para Modèle transactionnel
Resumo:
L'urbanisme durable réinterprète et réinvente le modèle de la ville dense. Il reconsidère les avantages de la proximité et pense l'organisation des relations entre la forme urbaine, les fonctions, les usages et les significations de la ville dans une visée de production de la qualité urbaine. Qualifier la ville c'est inscrire de la valeur dans l'espace. C'est faire de la ville un « trésor d'espaces », donner vie aux quartiers, organiser la mobilité, agencer des noyaux d'urbanité différenciés afin d'intensifier leurs multiples valeurs d'usage (économiques, sociales, écologiques, esthétiques). L'intensité urbaine révèle forcément la présence humaine et la manière dont la ville est vécue, représentée, signifiée et appropriée par ses habitants. L'article explore la notion d'intensité comme outil pour une gestion adaptative des densités urbaines et des tensions qu'elles engendrent. C'est aussi un plaidoyer pour une densification régulée dans une ville plurielle, réticulaire et polycentrique.
Resumo:
L'Académie de Lausanne est la première école supérieure protestante implantée en territoire francophone. Lausanne constitue ainsi, dès les années 1540, un pôle de première importance dans le monde réformé. De nombreux savants protestants, attirés par la liberté de pratiquer leur foi et par la présence de l'Académie, s'établissent dans cette ville et des étudiants affluent de toute l'Europe. Les structures de l'Académie de Lausanne et son programme d'enseignement, fixés par un règlement daté de 1547, condensent sous une forme nouvelle les réflexions pédagogiques de la Renaissance. Ils constituent un modèle, direct ou indirect, pour toutes les Académies calvinistes fondées aux XVIème et XVIIème siècles, que ce soit à Genève, en France, en Allemagne, aux Pays-Bas, en Écosse, en Pologne ou encore aux États-Unis, dont les trois premiers Colleges, Harvard, William and Mary et Yale, se situent dans la même tradition. Malgré la place fondamentale qu'occupe l'Académie de Lausanne dans l'histoire de l'éducation protestante, la phase de création et de développement de cette institution était encore très mal connue. Cette thèse comble cette lacune de l'historiographie par la mise au jour et par l'analyse de nombreux documents, en grande partie inédits. Elle détruit bon nombre de préjugés entourant la mise en place et les buts de l'Académie de Lausanne à ses débuts. Ainsi, l'Académie de Lausanne n'est pas uniquement une école de pasteurs, comme il a souvent été affirmé jusqu'à ce jour, mais plus largement une institution offrant une formation d'un niveau très élevé dans les trois langues anciennes, (latin, grec et hébreu), en arts libéraux, en philosophie naturelle et morale, et en théologie. Au milieu du XVIème siècle, l'Académie lausannoise est capable de rivaliser avec les meilleures institutions pédagogiques de la Renaissance et d'attirer, dans un rayon très large, non seulement des étudiants qui se destinent au pastorat, mais aussi ceux qui sont formés pour gouverner leurs cités. Plus généralement, cette thèse, qui combine des approches d'histoire intellectuelle, d'histoire politique et d'histoire sociale, reconstitue et analyse les structures de l'Académie de Lausanne jusqu'à 1560, ainsi que ses fonctions éducatives, confessionnelles et politiques.
Resumo:
RÉSUMÉ En conjuguant les méthodes de l'histoire littéraire, de la sociologie des champs et de l'analyse littéraire, ce mémoire se propose d'étudier l'élaboration de la « posture » de Maurice Blanchot dans l'immédiat après-guerre (1944-1948). Le passé de Blanchot, marqué par des positions politiques d'extrême droite dans les années 30, et dans une certaine mesure encore sous l'Occupation, le conduit à un repositionnement conséquent dans le champ littéraire de la Libération marqué par l'Epuration des écrivains collaborateurs. Ce repositionnement se traduit par l'élaboration de la « posture » de l'écrivain en retrait, qui se présente comme la manifestation d'une autonomie littéraire radicale. Toutefois, cette posture du retrait demeure une forme de participation au champ littéraire et Blanchot, malgré sa volonté d'une parfaite autonomie de son oeuvre vis-à-vis des impératifs économiques ou idéologiques du temps, n'en est pas moins amené à réélaborer ses postulats critiques de même que sa production proprement dite (Le Très-Haut, L'Arrêt de mort), en interaction avec les nouvelles forces dominantes du champ littéraire de la Libération. Il est notamment conduit à se positionner vis-à-vis de la nouvelle avant-garde qui a émergé de la Résistance, dominée par Sartre et ses Temps Modernes, qui promeut un nouveau modèle, celui de l'écrivain engagé.
Resumo:
La contrefaçon de billets de banque a considérablement évolué avec l'apparition des technologies numériques de reproduction. Gouverné autrefois par des professionnels bien organisés, le phénomène de la contrefaçon n'est plus aujourd'hui l'apanage de quelques initiés mais est répandu dans une large communauté de faussaires. Les systèmes et les acteurs de la lutte contre la contrefaçon doivent s'adapter à ce nouveau modèle afin de pallier les impacts économiques, personnels et psychologiques de la contrefaçon sur la société. Au coeur des débats sociologiques et éthiques, les autorités politiques, les banques nationales, la police et les experts tentent d'endiguer le problème de façon parfois quelque peu inadéquate et obsolète. L'analyse de données statistiques permet de dégager les tendances actuelles et d'identifier les changements majeurs entre deux époques.
Resumo:
Chemotherapy is widely used as a systemic treatment modality in cancer patients and provides survival benefits for a significant fraction of treated patients H However, some patients suffer from cancer relapse and rapidly progress to metastasis, suggesting that following chemotherapy their residual tumor developed a more aggressive phenotype 4 5. Although some molecular mechanisms involved in chemo-resistance and chemotherapy-induced metastatic relapse have been reported, more investigations and understanding of these processes are necessary before any translation into the clinic might be considered. By using the syngeneic metastatic 4T1 murine breast cancer model, we observed that chemotherapy treatment and selection of chemotherapy-resistant cancer cells in vitro can induces two opposite phenotypes: a dormant one and a relapsing-metastatic one. Previous studies in our laboratory demonstrated that irradiation of mammary gland promotes tumor metastasis, at least in part, by inducing the recruitment of CD11b+ cells to both the primary tumor and the lungs at a pre-metastatic stage. In this study we found that CD11b+ cells may also play important roles in chemotherapy-induced tumor metastasis and dormancy in vivo. Tumor cells expressing the stem cell marker Sca-1 were enriched by chemotherapy treatment in vitro, as well as in tumor metastasis in vivo. Furthermore, tumor-derived CD11b+ cells were capable to maintain and expand this population in vitro. These results suggest that the expansion of a tumor cell population with stem cell features might be a mechanism by which chemotherapy induces metastasis. On the other hand, the same drug treatment in vitro generated resistant cells with a dormant phenotype. Dormant tumor cells were able to induce an in vivo immune- inflammatory response in the draining lymph node, which is normally absent due to the immunosuppressive effects of tumor-recruited myeloid derived- suppressor cells (MDSCs). Genome-wide gene expression analysis revealed the enrichment of invasion and metastasis-related genes in the relapsing metastatic tumor cells and immune response-related genes in the dormant tumor cells. Interestingly, CD11b+ cells derived from the microenvironment of growing-metastatic tumors, but not CD11b+ cells derived from the spleen of tumor-free mice, were able to instigate outgrowth of dormant tumor cells in vivo. Also, dormant cells formed growing and metastatic tumors when injected into immune-compromised NGS mice. These results point to a role of chemotherapy in enabling treated tumor cells to acquire immune response-inducing capabilities, while impairing the recruitment of CD11b+ cells and their differentiation into an immune-suppressive cell. The molecular mechanisms underneath these effects are being further investigated. In conclusion, results obtained in this model indicate that chemotherapy can induce a dormant phenotype in cancer cells and that this state of dormancy can be broken by MDSCs educated by relapsing tumors. Understanding the mechanism beyond these effects, in particular unraveling the genetic or epigenetic determinants of dormancy vs relapse, might open the way to therapies aimed and maintaining residual cells escaping chemotherapy in a state of sustained dormancy. - La chimiothérapie est un traitement systémique largement utilisé chez les patients cancéreux qui donne un avantage de survie significatif pour une bonne partie de patients traités (1-3). Cependant, certains patients souffrent d'une rechute et progressent ensuite vers la métastase. Ceci suggère que leur tumeur résiduelle a développé un phénotype agressif suite à la chimiothérapie (4-5). Bien que certains mécanismes moléculaires impliqués dans la chimiorésistance et la rechute métastatique ont été identifiés, d'avantage d'études sont nécessaires afin de mieux comprendre ce phénomène et de développer des nouvelles thérapies cliniques. En utilisant un modèle syngénique de cancer du sein métastatique chez la sourie (4T1), nous avons observé que la sélection des cellules cancéreuses résistantes à la chimiothérapie in vitro peut induire deux phénotypes opposés: un phénotype de dormance et un phénotype de progression métastatique. Une étude précédente issue de notre laboratoire a démontré que l'irradiation de la glande mammaire favorise la métastase de tumeurs recourants suite au recrutement de cellules CD11b+ dans la tumeur primaire et dans les poumons pré-métastatiques. Dans notre étude nous avons constaté que les cellules CD11b+ peuvent également jouer un rôle important dans la formation de métastases induites par la chimiothérapie ainsi que dans le maintien de la dormance in vivo. Nous avons également observé un enrichissement de cellules tumorales exprimant le marqueur de cellule souche Sca-1 parmi les cellules tumorales résistantes à la chimiothérapie et dans les cellules qui on formé des métastases in vivo. Des cellules CD11b+ dérivées du microenvironnement tumorale favorisent l'expansion de la population de cellules tumorales Sca-1+ in vitro. Ces résultats suggèrent que l'expansion d'une population de cellules tumorales avec des caractéristiques de cellules souches pourrait constituer un mécanisme par lequel la chimiothérapie induit des métastases dans des tumeurs récurrentes. D'autre part le même traitement de chimiothérapie peut générer des cellules résistantes avec un phénotype dormant. Les expériences in vivo indiquent que les cellules tumorales dormantes induisent une réponse immunitaire inflammatoire dans le ganglion lymphatique de drainage, qui est normalement réprimée par des cellules myéloïdes suppressives de tumeur (MDSC). Une analyse d'expression de gènes a révélé l'enrichissement de gènes liés à l'invasion et à la métastase dans les cellules tumorales récurrentes et des gènes liés à la réponse immunitaire dans les cellules tumorales dormantes. Les cellules CD11b+ issues du microenvironnement des tumeurs récurrents ont incité la croissance des cellules tumorales dormantes in vivo, tandis que les cellules CD11b+ dérivées de la rate de souris non porteuses de tumeur ne l'étaient pas. Les mécanismes moléculaires sous-jacents restent à découvrir. En conclusion, les résultats obtenus dans ce modèle indiquent que la chimiothérapie pourrait favoriser non seulement l'induction d'une dormance cellulaire, mais également que les cellules dormantes seraient adroits de induire une réponse immunitaire capable les maintenir dans un état de dormance prolongé. Un déséquilibre dans cette réponse immunitaire pourrait des lors briser cet état de dormance et induire une progression tumorale. Comprendre les mécanismes responsables de ces effets, en particulier l'identification des déterminants génétiques ou épigénétiques liés à la dormance vs la rechute, pourraient ouvrir la voie à des nouvelles thérapies visant le maintien d'un état de dormance permanente des cellules résiduelles après chimiothérapie.
Resumo:
Ce document présente le modèe utilisé par le Service de la santé publique du canton de Vaud pour l'estimation du nombre de lits de court séjour et propose un enrichissement de ce modèle par l'utilisation de la statistique médicale VESKA. L'exemple présenté est celui de l'obstétrique, mais vaut pour d'autres secteurs de l'activité médico-hospitalières.
Resumo:
Summary: Global warming has led to an average earth surface temperature increase of about 0.7 °C in the 20th century, according to the 2007 IPCC report. In Switzerland, the temperature increase in the same period was even higher: 1.3 °C in the Northern Alps anal 1.7 °C in the Southern Alps. The impacts of this warming on ecosystems aspecially on climatically sensitive systems like the treeline ecotone -are already visible today. Alpine treeline species show increased growth rates, more establishment of young trees in forest gaps is observed in many locations and treelines are migrating upwards. With the forecasted warming, this globally visible phenomenon is expected to continue. This PhD thesis aimed to develop a set of methods and models to investigate current and future climatic treeline positions and treeline shifts in the Swiss Alps in a spatial context. The focus was therefore on: 1) the quantification of current treeline dynamics and its potential causes, 2) the evaluation and improvement of temperaturebased treeline indicators and 3) the spatial analysis and projection of past, current and future climatic treeline positions and their respective elevational shifts. The methods used involved a combination of field temperature measurements, statistical modeling and spatial modeling in a geographical information system. To determine treeline shifts and assign the respective drivers, neighborhood relationships between forest patches were analyzed using moving window algorithms. Time series regression modeling was used in the development of an air-to-soil temperature transfer model to calculate thermal treeline indicators. The indicators were then applied spatially to delineate the climatic treeline, based on interpolated temperature data. Observation of recent forest dynamics in the Swiss treeline ecotone showed that changes were mainly due to forest in-growth, but also partly to upward attitudinal shifts. The recent reduction in agricultural land-use was found to be the dominant driver of these changes. Climate-driven changes were identified only at the uppermost limits of the treeline ecotone. Seasonal mean temperature indicators were found to be the best for predicting climatic treelines. Applying dynamic seasonal delimitations and the air-to-soil temperature transfer model improved the indicators' applicability for spatial modeling. Reproducing the climatic treelines of the past 45 years revealed regionally different attitudinal shifts, the largest being located near the highest mountain mass. Modeling climatic treelines based on two IPCC climate warming scenarios predicted major shifts in treeline altitude. However, the currently-observed treeline is not expected to reach this limit easily, due to lagged reaction, possible climate feedback effects and other limiting factors. Résumé: Selon le rapport 2007 de l'IPCC, le réchauffement global a induit une augmentation de la température terrestre de 0.7 °C en moyenne au cours du 20e siècle. En Suisse, l'augmentation durant la même période a été plus importante: 1.3 °C dans les Alpes du nord et 1.7 °C dans les Alpes du sud. Les impacts de ce réchauffement sur les écosystèmes - en particuliers les systèmes sensibles comme l'écotone de la limite des arbres - sont déjà visibles aujourd'hui. Les espèces de la limite alpine des forêts ont des taux de croissance plus forts, on observe en de nombreux endroits un accroissement du nombre de jeunes arbres s'établissant dans les trouées et la limite des arbres migre vers le haut. Compte tenu du réchauffement prévu, on s'attend à ce que ce phénomène, visible globalement, persiste. Cette thèse de doctorat visait à développer un jeu de méthodes et de modèles pour étudier dans un contexte spatial la position présente et future de la limite climatique des arbres, ainsi que ses déplacements, au sein des Alpes suisses. L'étude s'est donc focalisée sur: 1) la quantification de la dynamique actuelle de la limite des arbres et ses causes potentielles, 2) l'évaluation et l'amélioration des indicateurs, basés sur la température, pour la limite des arbres et 3) l'analyse spatiale et la projection de la position climatique passée, présente et future de la limite des arbres et des déplacements altitudinaux de cette position. Les méthodes utilisées sont une combinaison de mesures de température sur le terrain, de modélisation statistique et de la modélisation spatiale à l'aide d'un système d'information géographique. Les relations de voisinage entre parcelles de forêt ont été analysées à l'aide d'algorithmes utilisant des fenêtres mobiles, afin de mesurer les déplacements de la limite des arbres et déterminer leurs causes. Un modèle de transfert de température air-sol, basé sur les modèles de régression sur séries temporelles, a été développé pour calculer des indicateurs thermiques de la limite des arbres. Les indicateurs ont ensuite été appliqués spatialement pour délimiter la limite climatique des arbres, sur la base de données de températures interpolées. L'observation de la dynamique forestière récente dans l'écotone de la limite des arbres en Suisse a montré que les changements étaient principalement dus à la fermeture des trouées, mais aussi en partie à des déplacements vers des altitudes plus élevées. Il a été montré que la récente déprise agricole était la cause principale de ces changements. Des changements dus au climat n'ont été identifiés qu'aux limites supérieures de l'écotone de la limite des arbres. Les indicateurs de température moyenne saisonnière se sont avérés le mieux convenir pour prédire la limite climatique des arbres. L'application de limites dynamiques saisonnières et du modèle de transfert de température air-sol a amélioré l'applicabilité des indicateurs pour la modélisation spatiale. La reproduction des limites climatiques des arbres durant ces 45 dernières années a mis en évidence des changements d'altitude différents selon les régions, les plus importants étant situés près du plus haut massif montagneux. La modélisation des limites climatiques des arbres d'après deux scénarios de réchauffement climatique de l'IPCC a prédit des changements majeurs de l'altitude de la limite des arbres. Toutefois, l'on ne s'attend pas à ce que la limite des arbres actuellement observée atteigne cette limite facilement, en raison du délai de réaction, d'effets rétroactifs du climat et d'autres facteurs limitants.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.
Resumo:
Résumé Introduction: La perfusion isolée cytostatique du poumon est une technique attractive qui permet l'administration des doses élevées d'un agent cytostatique tout en épargnant dans la mesure du possible la circulation systémique. Cependant, la perfusion de l'artère pulmonaire risque d'épargner le territoire pulmonaire vascularisé par l'intermédiaire des artères bronchiques, ce qui pourrait diminuer l'efficacité de ce traitement au cas où la lésion ciblée est vascularisée par les artères bronchiques. Ce travail est destiné au développement d'un modèle tumoral au niveau des poumons de rongeur (rat) porteur d'un sarcome pulmonaire afin de déterminer si la voie d'injection des cellules tumorales (intraveineuse, versus intratumorale) influencera la vascularisation des tumeurs (provenant du système artères pulmonaires ou artères bronchiques). Méthod: Des tumeurs de sarcomes pulmonaires ont été générées par injection d'une suspension cellulaire de sarcome, soit par injection intraveineuse, soit directement dans le parenchyme pulmonaire par thoracotomie. Ensuite, une perfusion isolée du poumon porteur de la tumeur à l'aide de l'encre a été effectuée, soit par l'artère pulmonaire, soit par le système des artères bronchiques. La distribution de l'encre dans les vaisseaux tumoraux ainsi que dans les vaisseaux non tumoraux du poumon adjacent a été investiguée à l'aide d'une analyse histologique des poumons perfusés. Résultat: L'administration intraveineuse et intratumorale de la suspension de cellules tumorales résulte en des tumeurs similaires sur le plan histologique. Néanmoins, l'injection intra-parenchymateuse démontre des tumeurs plus homogènes et avec un développement plus prédictible, était associée à une survie plus longue qu'après injection intraveineuse. Les analyses histologiques après perfusion isolée à l'aide de l'encre démontre que les tumeurs résultant de l'injection intraveineuse ont développé une vascularisation se basant sur le système d'artères pulmonaires tandis que les tumeurs émergeant après injection intraparenchymateuse ont développé une vascularisation provenant du système des artères bronchiques. Conclusion: Ce travail démontre pour la première fois l'importance du mode de génération de tumeurs pulmonaires en ce qui concerne leur future vascularisation, ce qui pourrait avoir un impact sur leur traitement par perfusion isolée du poumon. Abstract Isolated cytostatic lung perfusion (ILP) is an attractive technique allowing delivery of a high-dose of cytostatic agents to the lungs while limiting systemic toxicity. In developing a rat model of ILP, we have analysed the effect of the route of tumour cell injection on the source of tumour vessels. Pulmonary sarcomas were estab¬lished by injecting a sarcoma cell suspension either by the intravenous (i.v.) route or directly into the lung paren¬chyma. Ink perfusion through either pulmonary artery (PA) or bronchial arteries (BA) was performed and the characteristics of the tumour deposits defined. i.v. and direct injection methods induced pulmonary sarcoma nodules, with similar histological features. The intraparenchymal injection of tumour cells resulted in more reli¬able and reproducible tumour growth and was associat¬ed with a longer survival of the animals. i.v. injected tumours developed a PA-derived vascular tree whereas directly injected tumours developed a BA-derived vasculature.
Resumo:
L'étude de l'alliance familiale entre père, mère et nourrisson peut servir de modèle pour comprendre les conditions qui favorisent ou défavorisent la formation de l'alliance thérapeutique entre un thérapeute et un couple ou d'autres systèmes plus complexes. La communication implicite qui passe par les signaux affectifs y joue un rôle fondamental. Nos recherches ont montré quel 'analyse des épisodes de sourires à trois est une voie d'entrée pour l'évaluation de l'alliance père-mère-nourrisson et l'alliance thérapeute-couple.
Resumo:
L'objectif de l'étude présentée est d'adapter et de valider une version française de la Stigma Scale (King, 2007) auprès d'une population de personnes souffrant de troubles psychiques. Dans une première phase, la stabilité temporelle (fidélité test-retest), la cohérence interne et la validité convergente de l'instrument original à 28 items traduit en français ont été évaluées auprès d'un échantillon de 183 patients. Les résultats d'analyses factorielles confirmatoires ne nous ont pas permis de confirmer la structure originale de l'instrument. Nous avons donc proposé, sur la base des résultats d'une analyse factorielle exploratoire, une version courte de l'échelle de stigmatisation (9 items) qui conserve la structure en trois facteurs du modèle original. Dans une deuxième phase, nous avons examiné les qualités psychométriques et validé cette version abrégée de l'échelle de stigmatisation auprès d'un second échantillon de 234 patients. Les indices d'ajustements de notre analyse factorielle confirmatoire confirme la structure en trois facteurs de la version abrégée de la Stigma Scale. Les résultats suggèrent que la version française abrégée de l'échelle de stigmatisation constitue un instrument utile, fiable et valide dans l'autoévaluation de la stigmatisation perçue par des personnes souffrant de troubles psychiques. - Aim People suffering from mental illness are exposed to stigma. However, only few tools are available to assess stigmatization as perceived from the patient's perspective. The aim of this study is to adapt and validate a French version of the Stigma Scale (King, 2007). This self-report questionnaire has a three-factor structure: discrimination, disclosure and positive aspects of mental illness. Discrimination subscale refers to perceived negative reactions by others. Disclosure subscale refers mainly to managing disclosure to avoid discrimination and finally positive aspects subscale taps into how patients are becoming more accepting, more understanding toward their illness. Method In the first step, internal consistency, convergent validity and test-retest reliability of the French adaptation of the 28-item scale have been assessed on a sample of 183 patients. Results of confirmatory factor analyses (CFA) did not confirm the hypothesized structure. In light of the failed attempts to validate the original version, an alternative 9-item short-form version of the Stigma Scale, maintaining the integrity of the original model, was developed based on results of exploratory factor analyses in the first sample and cross- validated in a new sample of 234 patients. Results Results of CFA did not confirm that the data fitted well to the three-factor model of the 28-item Stigma Scale (χ2/άί=2.02, GFI=0.77, AGFI=0.73, RMSEA=0.07, CFI=0.77 et NNFI=0.75). Cronbach's α are excellent for discrimination (0.84) and disclosure (0.83) subscales but poor for potential positive aspects (0.46). External validity is satisfactory. Overall Stigma Scale total score is negatively correlated with score on Rosenberg's Self-Esteem Scale (r = -0.49), and each sub-scale is significantly correlated with a visual analogue scale that refers to the specific aspect of stigma (0.43 < |r| < 0.60). Intraclass correlation coefficients between 0.68 and 0.89 indicate good test- retest reliability. Results of CFA demonstrate that the items chosen for the short version of the Stigma Scale have the expected fit properties fa2/df=1.02, GFI=0.98, AGFI=0.98, RMSEA=0.01, CFI=1.0 et NNFI=1.0). Considering the small number (3 items) of items in each subscales of the short version of the Stigma Scale, a coefficients for the discrimination (0.57), disclosure (0.80) and potential positive aspects subscales (0.62) are considered as good. Conclusion Our results suggest that the 9-item French short-version of the Stigma Scale is a useful, reliable and valid self-report questionnaire to assess perceived stigmatization in people suffering from mental illness. The time of completion is really short and questions are well understood and accepted by the patients.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.