1000 resultados para Modèle interprétatif


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Introduction: La perfusion isolée cytostatique du poumon est une technique attractive qui permet l'administration des doses élevées d'un agent cytostatique tout en épargnant dans la mesure du possible la circulation systémique. Cependant, la perfusion de l'artère pulmonaire risque d'épargner le territoire pulmonaire vascularisé par l'intermédiaire des artères bronchiques, ce qui pourrait diminuer l'efficacité de ce traitement au cas où la lésion ciblée est vascularisée par les artères bronchiques. Ce travail est destiné au développement d'un modèle tumoral au niveau des poumons de rongeur (rat) porteur d'un sarcome pulmonaire afin de déterminer si la voie d'injection des cellules tumorales (intraveineuse, versus intratumorale) influencera la vascularisation des tumeurs (provenant du système artères pulmonaires ou artères bronchiques). Méthod: Des tumeurs de sarcomes pulmonaires ont été générées par injection d'une suspension cellulaire de sarcome, soit par injection intraveineuse, soit directement dans le parenchyme pulmonaire par thoracotomie. Ensuite, une perfusion isolée du poumon porteur de la tumeur à l'aide de l'encre a été effectuée, soit par l'artère pulmonaire, soit par le système des artères bronchiques. La distribution de l'encre dans les vaisseaux tumoraux ainsi que dans les vaisseaux non tumoraux du poumon adjacent a été investiguée à l'aide d'une analyse histologique des poumons perfusés. Résultat: L'administration intraveineuse et intratumorale de la suspension de cellules tumorales résulte en des tumeurs similaires sur le plan histologique. Néanmoins, l'injection intra-parenchymateuse démontre des tumeurs plus homogènes et avec un développement plus prédictible, était associée à une survie plus longue qu'après injection intraveineuse. Les analyses histologiques après perfusion isolée à l'aide de l'encre démontre que les tumeurs résultant de l'injection intraveineuse ont développé une vascularisation se basant sur le système d'artères pulmonaires tandis que les tumeurs émergeant après injection intraparenchymateuse ont développé une vascularisation provenant du système des artères bronchiques. Conclusion: Ce travail démontre pour la première fois l'importance du mode de génération de tumeurs pulmonaires en ce qui concerne leur future vascularisation, ce qui pourrait avoir un impact sur leur traitement par perfusion isolée du poumon. Abstract Isolated cytostatic lung perfusion (ILP) is an attractive technique allowing delivery of a high-dose of cytostatic agents to the lungs while limiting systemic toxicity. In developing a rat model of ILP, we have analysed the effect of the route of tumour cell injection on the source of tumour vessels. Pulmonary sarcomas were estab¬lished by injecting a sarcoma cell suspension either by the intravenous (i.v.) route or directly into the lung paren¬chyma. Ink perfusion through either pulmonary artery (PA) or bronchial arteries (BA) was performed and the characteristics of the tumour deposits defined. i.v. and direct injection methods induced pulmonary sarcoma nodules, with similar histological features. The intraparenchymal injection of tumour cells resulted in more reli¬able and reproducible tumour growth and was associat¬ed with a longer survival of the animals. i.v. injected tumours developed a PA-derived vascular tree whereas directly injected tumours developed a BA-derived vasculature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude de l'alliance familiale entre père, mère et nourrisson peut servir de modèle pour comprendre les conditions qui favorisent ou défavorisent la formation de l'alliance thérapeutique entre un thérapeute et un couple ou d'autres systèmes plus complexes. La communication implicite qui passe par les signaux affectifs y joue un rôle fondamental. Nos recherches ont montré quel 'analyse des épisodes de sourires à trois est une voie d'entrée pour l'évaluation de l'alliance père-mère-nourrisson et l'alliance thérapeute-couple.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de l'étude présentée est d'adapter et de valider une version française de la Stigma Scale (King, 2007) auprès d'une population de personnes souffrant de troubles psychiques. Dans une première phase, la stabilité temporelle (fidélité test-retest), la cohérence interne et la validité convergente de l'instrument original à 28 items traduit en français ont été évaluées auprès d'un échantillon de 183 patients. Les résultats d'analyses factorielles confirmatoires ne nous ont pas permis de confirmer la structure originale de l'instrument. Nous avons donc proposé, sur la base des résultats d'une analyse factorielle exploratoire, une version courte de l'échelle de stigmatisation (9 items) qui conserve la structure en trois facteurs du modèle original. Dans une deuxième phase, nous avons examiné les qualités psychométriques et validé cette version abrégée de l'échelle de stigmatisation auprès d'un second échantillon de 234 patients. Les indices d'ajustements de notre analyse factorielle confirmatoire confirme la structure en trois facteurs de la version abrégée de la Stigma Scale. Les résultats suggèrent que la version française abrégée de l'échelle de stigmatisation constitue un instrument utile, fiable et valide dans l'autoévaluation de la stigmatisation perçue par des personnes souffrant de troubles psychiques. - Aim People suffering from mental illness are exposed to stigma. However, only few tools are available to assess stigmatization as perceived from the patient's perspective. The aim of this study is to adapt and validate a French version of the Stigma Scale (King, 2007). This self-report questionnaire has a three-factor structure: discrimination, disclosure and positive aspects of mental illness. Discrimination subscale refers to perceived negative reactions by others. Disclosure subscale refers mainly to managing disclosure to avoid discrimination and finally positive aspects subscale taps into how patients are becoming more accepting, more understanding toward their illness. Method In the first step, internal consistency, convergent validity and test-retest reliability of the French adaptation of the 28-item scale have been assessed on a sample of 183 patients. Results of confirmatory factor analyses (CFA) did not confirm the hypothesized structure. In light of the failed attempts to validate the original version, an alternative 9-item short-form version of the Stigma Scale, maintaining the integrity of the original model, was developed based on results of exploratory factor analyses in the first sample and cross- validated in a new sample of 234 patients. Results Results of CFA did not confirm that the data fitted well to the three-factor model of the 28-item Stigma Scale (χ2/άί=2.02, GFI=0.77, AGFI=0.73, RMSEA=0.07, CFI=0.77 et NNFI=0.75). Cronbach's α are excellent for discrimination (0.84) and disclosure (0.83) subscales but poor for potential positive aspects (0.46). External validity is satisfactory. Overall Stigma Scale total score is negatively correlated with score on Rosenberg's Self-Esteem Scale (r = -0.49), and each sub-scale is significantly correlated with a visual analogue scale that refers to the specific aspect of stigma (0.43 < |r| < 0.60). Intraclass correlation coefficients between 0.68 and 0.89 indicate good test- retest reliability. Results of CFA demonstrate that the items chosen for the short version of the Stigma Scale have the expected fit properties fa2/df=1.02, GFI=0.98, AGFI=0.98, RMSEA=0.01, CFI=1.0 et NNFI=1.0). Considering the small number (3 items) of items in each subscales of the short version of the Stigma Scale, a coefficients for the discrimination (0.57), disclosure (0.80) and potential positive aspects subscales (0.62) are considered as good. Conclusion Our results suggest that the 9-item French short-version of the Stigma Scale is a useful, reliable and valid self-report questionnaire to assess perceived stigmatization in people suffering from mental illness. The time of completion is really short and questions are well understood and accepted by the patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Le système rénine-angiotensine joue un rôle prépondérant dans la régulation de la pression sanguine et de la balance des sels ainsi que dans d'autres processus physiologiques et pathologiques. Lorsque la pression sanguine est trop basse, les cellules juxtaglomérulaires sécrètent la rénine, qui clivera l'angiotensinogène circulant (sécrété majoritairement par le foie) pour libérer l'angiotensine I, qui sera alors transformée en angiotensine II par l'enzyme de conversion de l'angiotensine. Ce système est régulé au niveau de la sécrétion de la rénine par le rein. La rénine est une enzyme de type protéase aspartique. Elle est produite sous la forme d'un précurseur inactif de haut poids moléculaire appelé prorénine, qui peut être transformé en rénine active. Si le rôle de la prorégion de la rénine n'est pas encore connu, plusieurs études ont montré qu'elle pourrait être un auto-inhibiteur. Des travaux menés sur d'autres enzymes protéolytique ont mis en évidence un rôle de chaperon de leurs prorégions. Dans la circulation, la prorénine est majoritaire (90%) et la rénine active ne représente que 10% de la rénine circulante. L'enzyme qui transforme, in vivo, la prorénine en rénine active n'est pas connue. De même, l'endroit précis du clivage n'est pas élucidé. Dans ce travail, nous avons généré plusieurs mutants de la prorénine et les avons exprimés dans deux types cellulaires : les CV1 (modèle constitutif) et AtT-20 (modèle régulé). Nous avons montré que la prorégion joue un rôle important aussi bien dans l'acquisition de l'activité enzymatique que dans la sécrétion de la rénine, mais fonctionne différemment d'un type cellulaire à l'autre. Nous avons montré pour la première fois que la prorégion interagit de façon intermoléculaire à l'intérieur de la cellule. Les expériences de complémentation montre que l'interaction favorable de la rénine avec la prorégion dépend de la taille de cette dernière : prorénine (383 acides aminés) > pro62 (62 acides aminés) > pro43 (43 acides aminés). Par ailleurs nos résultats montrent qu'une faible partie de la rénine est dirigée vers la voie de sécrétion régulée classique tandis que la majorité est dirigée vers les lysosomes. Ceci suggère qu'une internalisation de la rénine circulante via le récepteur mannose-6-phosphate est possible. Cette dernière concernerait essentiellement la prorénine (dont les taux circulants sont 10 fois plus élevés que la rénine active). La suite de ce travail porterait sur la confirmation de cette hypothèse et l'identification de son possible rôle physiologique. SUMMARY The renin-angiotensin system is critical for the control of blood pressure and salt balance and other physiological and pathological processes. When blood pressure is too low, renin is secreted by the juxtaglomerular cells. It will cleave the N-terminus of circulating angiotensinogen (mostly secreted by the liver) to angiotensin-1, which is then transformed in angiotensin-II by the angiotensin-converting-enzyme (ACE). This system is regulated at the level of renin release. Renin, an aspartyl protease, is produced from a larger precursor (called prorenin) which is matured into active renin. Although the role of the renin proregion remains unknown, it has been reported that it could act as an autoinhibitor. Works on other proteolytic enzymes showed that their prorégion can act as chaperones. prorenin is the major circulating form of renin, while active renin represents only 10%. The enzyme which transforms, in vivo, the prorenin into active renin is unknown and the exact cleavage site remains to be elucidated. In this study, we generated some prorenin mutants, which were expressed in CV1 cells (constitutive pathway model) or AtT-20 cells (regulated pathway model). We showed that the proregion plays a pivotal role in the enzymatic activity and secretion of renin in a different manner in the two cell types. For the first time, it has been demonstrated that the proregion acts in an intermolecular way into the cell. Complementation assays showed that interaction between renin and proregion depends on the size of the proregion: prorenin (383 amino acids) > pro62 (62 amino acids) > pro43 (43 amino acids). Furthermore, our results showed that only a small amount of the cellular renin pool is targeted to the "canonical" regulated pathway and that the remaining is targeted to the lysosomes. Those results suggest a possible internalizátion of the circulating renin through the mannose-6-phosphate receptor pathway. This would mostly concern the prorenin (whose levels are ten times higher than active renin). Further studies would confirm or infirm this hypothesis and elucidate a potential physiological role.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse: Les rendez-vous manqués représentent un problème important, tant du point de vue de la santé des patients que du point de vue économique. Pourtant peu d'études se sont penchées sur le sujet, particulièrement dans une population d'adolescents. Les buts de cette étude étaient de caractériser les adolescents qui sont à risque de manquer ou d'annuler leurs rendez-vous dans une clinique ambulatoire de santé pour adolescents, de comparer les taux des rendez-vous manqués et annulés entre les différents intervenants et d'estimer l'efficacité d'une politique de taxation des rendez-vous manqués non excusés. Finalement, un modèle multi-niveau markovien a été utilisé afin de prédire le risque de manquer un rendez-vous. Ce modèle tient compte du passé de l'adolescent en matière de rendez-vous manqués et d'autres covariables et permet de grouper les individus ayant un comportement semblable. On peut ensuite prédire pour chaque groupe le risque de manquer ou annuler et les covariables influençant significativement ce risque. Entre 1999 et 2006, 32816 rendez-vous fixés pour 3577 patients âgés de 12 à 20 ans ont été analysés. Le taux de rendez-vous manqués était de 11.8%, alors que 10.9% avaient été annulés. Soixante pour cent des patients n'ont pas manqué un seul de leur rendezvous et 14% en ont manqué plus de 25%. Nous avons pu mettre en évidence plusieurs variables associées de manière statistiquement significative avec les taux de rendez-vous manqués et d'annulations (genre, âge, heure, jour de la semaine, intervenant thérapeutique). Le comportement des filles peut être catégorisé en 2 groupes. Le premier groupe inclut les diagnostiques psychiatriques et de trouble du comportement alimentaire, le risque de manquer dans ce groupe étant faible et associé au fait d'avoir précédemment manqué un rendez-vous et au délai du rendez-vous. Les autres diagnostiques chez les filles sont associés à un second groupe qui montre un risque plus élevé de manquer un rendez-vous et qui est associé à l'intervenant, au fait d'avoir précédemment manqué ou annulé le dernier rendez-vous et au délai du rendez-vous. Les garçons ont tous globalement un comportement similaire concernant les rendez-vous manqués. Le diagnostic au sein de ce groupe influence le risque de manquer, tout comme le fait d'avoir précédemment manqué ou annulé un rendez-vous, le délai du rendez-vous et l'âge du patient. L'introduction de la politique de taxation des rendez-vous non excusés n'a pas montré de différence significative des tàux de rendez-vous manqués, cependant cette mesure a permis une augmentation du taux d'annulations. En conclusion, les taux de présence des adolescents à leurs rendez-vous sont dépendants de facteurs divers. Et, même si les adolescents sont une population à risque concernant les rendez-vous manqués, la majorité d'entre eux ne manquent aucun de leurs rendez-vous, ceci étant vrai pour les deux sexes. Etudier les rendez-vous manqués et les adolescents qui sont à risque de rater leur rendez-vous est un pas nécessaire vers le contrôle de ce phénomène. Par ailleurs, les moyens de contrôle concernant les rendez-vous manqués devraient cibler les patients ayant déjà manqué un rendez-vous. La taxation des rendez-vous manqués permet d'augmenter les rendez-vous annulés, ce qui a l'avantage de permettre de fixer un nouveau rendez-vous et, de ce fait, d'améliorer la continuité des soins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le suivi intensif dans le milieu (SIM) est une équipe de psychiatrie mobile pluridisciplinaire qui propose des soins au sein de la communauté. Après avoir décrit le modèle d'intervention, cet article illustre par un exemple clinique en quoi ce type de suivi facilite le processus de rétablissement de personnes considérées comme réfractaires aux soins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Introduction : La perfusion isolée du poumon à l'aide de Doxorubicine libre et une nouvelle forme de Doxorubicine liposomale pégylée (Liporubicine) est comparé en terme de pénétration et accumulation de Doxorubicine dans le tissu tumoral et pulmonaire dans un modèle de rats porteurs de tumeur sarcomateuse au niveau du poumon gauche. Matériel et méthode : Une tumeur sarcomateuse unique a été générée dans le poumon gauche de 39 Fischer rats, suivi 10 jours plus tard, par une perfusion isolée du poumon gauche (n =36) avec Doxorubicine libre (n=18) et Liporubicine (n=18) à une dose de 100 µg (n=9) et 400 µg (n=9) pour chaque formulation de Doxorubicine. Dans chaque poumon perfusé, la concentration de l'agent cytostatique et sa distribution ont été investiguées dans la tumeur et trois parties du poumon normal par HLPC (n=6) et par microscopie de florescence (n=3). Des analyses histologiques et inmunohistochimiques (facteur von Willebrand) ont été effectuées sur trois animaux non traités. Résultats : Les tumeurs sarcomateuses dans les animaux de contrôle démontraient une bonne vascularisation avec de fines branches capillaires qui étaient présentes partout dans les tumeurs. La perfusion isolée du poumon démontrait une distribution de l'agent cytostatique d'une manière hétérogène dans le poumon perfusé et une concentration de Doxorubicine inférieure dans les tumeurs par rapport au tissu pulmonaire sein pour les deux formulations de Doxorubicine et les deux doses appliquées. La perfusion isolée du poumon avec Doxorubicine libre démontrait une concentration significativement plus élevée que Liporubicine dans la tumeur et le parenchyme pulmonaire pour les deux doses appliquées (p < 0,01). Néanmoins, le coefficient de concentration tumorale et pulmonaire était plus bas pour Doxorubicine libre que pour Liporubicine pour une dose de 100 µg (0.27 ± 0.1 vs 0.53 ± 0.5, p=0.23) tandis qu'il était similaire pour les deux formulations de Doxorubicine à une dose de 400 µg (0.67 ± 0.2 vs 0.54 ± 0.2, p=0.34). Les deux formulations de Doxorubicine émergeaient un signal de fluorescence provenant de tous les compartiments du parenchyme pulmonaire mais seulement un signal sporadique et faible émergeant des tumeurs, provenant de la périphérie de la tumeur et des vaisseaux situés à l'intérieur de la tumeur, pour les deux doses appliquées. Conclusion : La perfusion isolée du poumon démontrait une distribution hétérogène de la Doxorubicine et sa forme liposomale dans le poumon perfusé et une accumulation plus faible dans la tumeur que dans le tissu parenchymateux adjacent pour les deux formulations de Doxorubicine et les deux doses appliquées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation de l'Internet comme medium pour faire ses courses et achats a vu une croissance exponentielle. Cependant, 99% des nouveaux business en ligne échouent. La plupart des acheteurs en ligne ne reviennent pas pour un ré-achat et 60% abandonnent leur chariot avant de conclure l'achat. En effet, après le premier achat, la rétention du consommateur en ligne devient critique au succès du vendeur de commerce électronique. Retenir des consommateurs peut sauver des coûts, accroître les profits, et permet de gagner un avantage compétitif.Les recherches précédentes ont identifié la loyauté comme étant le facteur le plus important dans la rétention du consommateur, et l'engagement ("commitment") comme étant un des facteurs les plus importants en marketing relationnel, offrant une réflexion sur la loyauté. Pourtant, nous n'avons pu trouver d'étude en commerce électronique examinant l'impact de la loyauté en ligne et de l'engagement en ligne ("online commitment") sur le ré-achat en ligne. Un des avantages de l'achat en ligne c'est la capacité à chercher le meilleur prix avec un clic. Pourtant, nous n'avons pu trouver de recherche empirique en commerce électronique qui examinait l'impact de la perception post-achat du prix sur le ré-achat en ligne.L'objectif de cette recherche est de développer un modèle théorique visant à comprendre le ré-achat en ligne, ou la continuité d'achat ("purchase continuance") du même magasin en ligne.Notre modèle de recherche a été testé dans un contexte de commerce électronique réel, sur un échantillon total de 1,866 vrais acheteurs d'un même magasin en ligne. L'étude est centrée sur le ré-achat. Par conséquent, les répondants sélectionnés aléatoirement devaient avoir acheté au moins une fois de ce magasin en ligne avant le début de l'enquête. Cinq mois plus tard, nous avons suivi les répondants pour voir s'ils étaient effectivement revenus pour un ré-achat.Notre analyse démontre que l'intention de ré-achat en ligne n'a pas d'impact significatif sur le ré-achat en ligne. La perception post-achat du prix en ligne ("post-purchase Price perception") et l'engagement normatif en ligne ("Normative Commitment") n'ont pas d'impact significatif sur l'intention de ré-achat en ligne. L'engagement affectif en ligne ("Affective Commitment"), l'attitude loyale en ligne ("Attitudinal Loyalty"), le comportement loyal en ligne ("Behavioral Loyalty"), l'engagement calculé en ligne ("Calculative Commitment") ont un impact positif sur l'intention de ré-achat en ligne. De plus, l'attitude loyale en ligne a un effet de médiation partielle entre l'engagement affectif en ligne et l'intention de ré-achat en ligne. Le comportement loyal en ligne a un effet de mediation partielle entre l'attitude loyale en ligne et l'intention de ré-achat en ligne.Nous avons réalisé deux analyses complémentaires : 1) Sur un échantillon de premiers acheteurs, nous trouvons que la perception post-achat du prix en ligne a un impact positif sur l'intention de ré-achat en ligne. 2) Nous avons divisé l'échantillon de l'étude principale entre des acheteurs répétitifs Suisse-Romands et Suisse-Allemands. Les résultats démontrent que les Suisse-Romands montrent plus d'émotions durant l'achat en ligne que les Suisse-Allemands. Nos résultats contribuent à la recherche académique mais aussi aux praticiens de l'industrie e-commerce.AbstractThe use of the Internet as a shopping and purchasing medium has seen exceptional growth. However, 99% of new online businesses fail. Most online buyers do not comeback for a repurchase, and 60% abandon their shopping cart before checkout. Indeed, after the first purchase, online consumer retention becomes critical to the success of the e-commerce vendor. Retaining existing customers can save costs, increase profits, and is a means of gaining competitive advantage.Past research identified loyalty as the most important factor in achieving customer retention, and commitment as one of the most important factors in relationship marketing, providing a good description of what type of thinking leads to loyalty. Yet, we could not find an e-commerce study investing the impact of both online loyalty and online commitment on online repurchase. One of the advantages of online shopping is the ability of browsing for the best price with one click. Yet, we could not find an e- commerce empirical research investigating the impact of post-purchase price perception on online repurchase.The objective of this research is to develop a theoretical model aimed at understanding online repurchase, or purchase continuance from the same online store.Our model was tested in a real e-commerce context with an overall sample of 1, 866 real online buyers from the same online store.The study focuses on repurchase. Therefore, randomly selected respondents had purchased from the online store at least once prior to the survey. Five months later, we tracked respondents to see if they actually came back for a repurchase.Our findings show that online Intention to repurchase has a non-significant impact on online Repurchase. Online post-purchase Price perception and online Normative Commitment have a non-significant impact on online Intention to repurchase, whereas online Affective Commitment, online Attitudinal Loyalty, online Behavioral Loyalty, and online Calculative Commitment have a positive impact on online Intention to repurchase. Furthermore, online Attitudinal Loyalty partially mediates between online Affective Commitment and online Intention to repurchase, and online Behavioral Loyalty partially mediates between online Attitudinal Loyalty and online Intention to repurchase.We conducted two follow up analyses: 1) On a sample of first time buyers, we find that online post-purchase Price perception has a positive impact on Intention. 2) We divided the main study's sample into Swiss-French and Swiss-German repeated buyers. Results show that Swiss-French show more emotions when shopping online than Swiss- Germans. Our findings contribute to academic research but also to practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.