389 resultados para concept formation
Resumo:
Pour faire évoluer la science forensique, il faut pouvoir analyser des notions élémentaires appartenant au quotidien et non se focaliser exclusivement sur le développement de nouvelles techniques. Encore non étudiée sous cette perspective, la pertinence fait partie de ces notions fondamentales forensiques pour lesquelles une telle analyse mérite d'être menée. En tenant compte du constat formulé par Inman et Rudin (2000), à savoir que la tâche la plus compliquée est de pouvoir reconnaître des traces matérielles pertinentes, s'interroger sur la pertinence de la trace soulève bien plus qu'une question. Cela met en évidence une multitude de paramètres intervenant dans les processus de raisonnement et de décision opérés sur les lieux d'investigations. Du reste trois facteurs susceptibles d'avoir une influence notable sur la recherche de traces apparaissent : Savoir, Formation et Expérience ou S.F.E. Ils forment, en étant regroupés, un bagage spécifique au spécialiste, composant sa connaissance dans le domaine et à même de jouer un rôle d'importance dans son travail opéré sur les lieux. Afin de déterminer l'influence de ce bagage sur le concept de pertinence, la démarche expérimentale se conduit en deux temps. Dans une première phase, l'approche se veut exploratoire au travers d'un stage réalisé dans une unité d'interventions, permettant de poser des bases statistiques et de dresser une réalité du travail sur le terrain. Puis au cours de la phase expérimentale, la conduite d'entretiens semi-directifs, couplés à un sondage, vise à déterminer quelle perception du concept de pertinence ressort parmi les volontaires interrogés. Ces derniers sont issus de groupes composés de futurs criminalistes, qui suivent une formation forensique à l'Université de Lausanne, et de praticiens expérimentés de formation police et / ou scientifique. En tentant de clarifier le concept de pertinence, l'objectif est de fournir des outils pour renforcer ou orienter la formation de spécialistes sur le terrain, en ayant permis d'amorcer une démarche de réflexion logique face aux champs d'investigations. En se voulant utile pour mieux formaliser la détection et la collecte des traces pertinentes sur les lieux, cela constitue une aide à la gestion : un atout non négligeable à l'heure où les contrôles qualité et les standards ne sont plus seulement une tendance mais une réalité qui s'impose.
Resumo:
Jusqu'à aujourd'hui la recherche en psychothérapie a essentiellement exploré quatre questions clés : 1) la psychothérapie est-elle efficace?; 2) quelle forme de psychothérapie est la plus efficace ? ; 3) quelle forme de psychothérapie est efficace pour quel patient? et 4) qu'est-ce qui permet à la psychothérapie d'être efficace? Si l'efficacité de la psychothérapie est désormais reconnue, la recherche empirique n'a jamais permis de désigner une approche psychothérapeutique comme étant la plus efficace de toutes. Les questions de l'indication différentielle des formes de psychothérapie selon les pathologies, et celles concernant les processus de la thérapie, qui permettraient d'en prédire le résultat, n'ont pas trouvé à ce jour de réponse définitive.
Resumo:
Compte tenu des relations étroites existant entre le pouvoir politique et l'histoire - et plus particulièrement l'enseignement de l'histoire à l'école - , les manuels constituent un objet d'étude privilégié de l'évolution des relations pouvoir/enseignement. Ils fournissent un lieu de médiation privilégié entre les savoirs savants et les savoirs scolaires institutionnels ; ils permettent d'observer les conceptions didactiques préconisées par l'institution scolaire. Si, sous l'égide de l'Etat-nation au 19e siècle, les savoirs savants historiques et les savoirs scolaires étaient entremêlés, les rapports se sont complexifiés durant le 20e siècle en raison notamment de la prise de distance progressive de l'histoire savante à l'égard du pouvoir. Petit à petit, à partir des années 1930, le concept d'histoire- problème, initié par l'école historique des Annales, dépasse l'histoire-récit de l'école historique positiviste (méthodique) du 19e siècle et sa traduction du récit- national au coeur de la leçon d'histoire. Cependant, si après 1945, l'école des Annales, puis la Nouvelle histoire, tendent à s'imposer dans le champ de l'histoire savante francophone, elles se heurtent à une tradition scolaire bien établie et modifient peu et tardivement les curricula, les manuels et les pratiques enseignantes. Progressivement donc, une fracture apparaît entre l'histoire savante et l'histoire scolaire. Dans cette étude, notre travail envisage l'analyse du manuel d'histoire en tant qu'objet hybride. Il est à la fois porteur d'un texte historien, ouvrage de vulgarisation et de référence, ainsi qu'outil pédagogico-didactique. Par ailleurs, le manuel d'histoire a la charge de transmettre des valeurs, car les finalités attribuées par l'autorité politique, via les autorités scolaires, à l'histoire scolaire comportent toujours une dimension forte de formation du futur citoyen. Au texte de départ sont associés des documents textuels ou iconiques, des résumés, des questions regroupées par chapitre, un glossaire ou une chronologie générale. De plus, ce texte est encadré d'un dispositif didactique plus ou moins explicite : préface, numérotation par paragraphe correspondant à la leçon du jour, dates mises en évidence, aide-mémoire et questions. Par ailleurs, les découpages en livres ou en parties peuvent correspondre à des années (ou parties d'années) de programme. Il sera donc également étudié pour les spécificités d'un sous-genre de discours à définir : les manuels - d'histoire - produits (et utilisés) dans le canton de Vaud au 20e siècle. En conséquence, notre travail se propose d'observer et d'analyser les manuels d'histoire vaudois sous deux modalités préférentielles. Premièrement, celle des formes constitutives et évolutives prises par le manuel pour se construire comme un discours légitimé (deuxième partie : écriture et mise en scène de l'histoire). Deuxièmement, celle de la mise en scène d'une histoire à visée pseudo- pédagogique masquant l'intégration du discours de l'autorité politique (troisième partie : comment l'autorité vient au discours). Site internet : http://manuelshistoire.ch
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
The anaplastic lymphoma kinase (ALK) gene is overexpressed, mutated or amplified in most neuroblastoma (NB), a pediatric neural crest-derived embryonal tumor. The two most frequent mutations, ALK-F1174L and ALK-R1275Q, contribute to NB tumorigenesis in mouse models, and cooperate with MYCN in the oncogenic process. However, the precise role of activating ALK mutations or ALK-wt overexpression in NB tumor initiation needs further clarification. Human ALK-wt, ALK-F1174L, or ALK-R1275Q were stably expressed in murine neural crest progenitor cells (NCPC), MONC-1 or JoMa1, immortalized with v-Myc or Tamoxifen-inducible Myc-ERT, respectively. While orthotopic implantations of MONC- 1 parental cells in nude mice generated various tumor types, such as NB, osteo/ chondrosarcoma, and undifferentiated tumors, due to v-Myc oncogenic activity, MONC-1-ALK-F1174L cells only produced undifferentiated tumors. Furthermore, our data represent the first demonstration of ALK-wt transforming capacity, as ALK-wt expression in JoMa1 cells, likewise ALK-F1174L, or ALK-R1275Q, in absence of exogenous Myc-ERT activity, was sufficient to induce the formation of aggressive and undifferentiated neural crest cell-derived tumors, but not to drive NB development. Interestingly, JoMa1-ALK tumors and their derived cell lines upregulated Myc endogenous expression, resulting from ALK activation, and both ALK and Myc activities were necessary to confer tumorigenic properties on tumor-derived JoMa1 cells in vitro.
Resumo:
The mechanisms of blood vessel maturation into distinct parts of the blood vasculature such as arteries, veins, and capillaries have been the subject of intense investigation over recent years. In contrast, our knowledge of lymphatic vessel maturation is still fragmentary. In this study, we provide a molecular and morphological characterization of the major steps in the maturation of the primary lymphatic capillary plexus into collecting lymphatic vessels during development and show that forkhead transcription factor Foxc2 controls this process. We further identify transcription factor NFATc1 as a novel regulator of lymphatic development and describe a previously unsuspected link between NFATc1 and Foxc2 in the regulation of lymphatic maturation. We also provide a genome-wide map of FOXC2-binding sites in lymphatic endothelial cells, identify a novel consensus FOXC2 sequence, and show that NFATc1 physically interacts with FOXC2-binding enhancers. These data provide novel insights into the molecular program of lymphatic vascular specification and suggest that FOXC2 and NFATc1 are potential targets for therapeutic intervention.
Resumo:
We analyzed the initial adhesion and biofilm formation of Staphylococcus aureus (ATCC 29213) and S. epidermidis RP62A (ATCC 35984) on various bone grafts and bone graft substitutes under standardized in vitro conditions. In parallel, microcalorimetry was evaluated as a real-time microbiological assay in the investigation of biofilm formation and material science research. The materials beta-tricalcium phosphate (beta-TCP), processed human spongiosa (Tutoplast) and poly(methyl methacrylate) (PMMA) were investigated and compared with polyethylene (PE). Bacterial counts (log(10) cfu per sample) were highest on beta-TCP (S. aureus 7.67 +/- 0.17; S. epidermidis 8.14 +/- 0.05) while bacterial density (log(10) cfu per surface) was highest on PMMA (S. aureus 6.12 +/- 0.2, S. epidermidis 7.65 +/- 0.13). Detection time for S. aureus biofilms was shorter for the porous materials (beta-TCP and processed human spongiosa, p < 0.001) compared to the smooth materials (PMMA and PE), with no differences between beta-TCP and processed human spongiosa (p > 0.05) or PMMA and PE (p > 0.05). In contrast, for S. epidermidis biofilms the detection time was different (p < 0.001) between all materials except between processed human spongiosa and PE (p > 0.05). The quantitative analysis by quantitative culture after washing and sonication of the material demonstrated the importance of monitoring factors like specific surface or porosity of the test materials. Isothermal microcalorimetry proved to be a suitable tool for an accurate, non-invasive and real-time microbiological assay, allowing the detection of bacterial biomass without removing the biofilm from the surface.
Resumo:
Abstract Empirical testing of candidate vaccines has led to the successful development of a number of lifesaving vaccines. The advent of new tools to manipulate antigens and new methods and vectors for vaccine delivery has led to a veritable explosion of potential vaccine designs. As a result, selection of candidate vaccines suitable for large-scale efficacy testing has become more challenging. This is especially true for diseases such as dengue, HIV, and tuberculosis where there is no validated animal model or correlate of immune protection. Establishing guidelines for the selection of vaccine candidates for advanced testing has become a necessity. A number of factors could be considered in making these decisions, including, for example, safety in animal and human studies, immune profile, protection in animal studies, production processes with product quality and stability, availability of resources, and estimated cost of goods. The "immune space template" proposed here provides a standardized approach by which the quality, level, and durability of immune responses elicited in early human trials by a candidate vaccine can be described. The immune response profile will demonstrate if and how the candidate is unique relative to other candidates, especially those that have preceded it into efficacy testing and, thus, what new information concerning potential immune correlates could be learned from an efficacy trial. A thorough characterization of immune responses should also provide insight into a developer's rationale for the vaccine's proposed mechanism of action. HIV vaccine researchers plan to include this general approach in up-selecting candidates for the next large efficacy trial. This "immune space" approach may also be applicable to other vaccine development endeavors where correlates of vaccine-induced immune protection remain unknown.
Resumo:
Cancer is one of the world's leading causes of death with a rising trend in incidence. These epidemiologic observations underline the need for novel treatment strategies. In this regard, a promising approach takes advantage of the adaptive effector mechanisms of the immune system, using T lymphocytes to specifically target and destroy tumour cells. However, whereas current approaches mainly depend on short-lived, terminally differentiated effector T cells, increasing evidence suggests that long lasting and maximum efficient immune responses are mediated by low differentiated memory T cells. These memory T cells should display characteristics of stem cells, such as longevity, self-renewal capacity and the ability to continuously give rise to further differentiated effectors. These stem celllike memory T (TSCM) cells are thought to be of key therapeutic value as they might not only attack differentiated tumour cells, but also eradicate the root cause of cancer, the cancer stem cells themselves. Thus, efforts are made to characterize TSCM cells and to identify the signalling pathways which mediate their induction. Recently, a human TSCM cell subset was described and the activation of the Wnt-ß-catenin signalling pathway by the drug TWS119 during naive CD8+ T (TN) cell priming was suggested to mediate their induction. However, a precise deciphering of the signalling pathways leading to TSCM cell induction and an in-depth characterization of in vitro induced and in vivo occurring TSCM cells remain to be performed. Here, evidence is presented that the induction of human and mouse CD8+ and CD4+ TSCM cells may be triggered by inhibition of mechanistic/mammalian target of rapamycin (mTOR) complex 1 with simultaneously active mTOR complex 2. This molecular mechanism arrests a fraction of activated TN cells in a stem cell-like differentiation state independently of the Wnt-ß-catenin signalling pathway. Of note, TWS119 was found to also inhibit mTORCl, thereby mediating the induction of TSCM cells. Suggesting an immunostimulatory effect, the acquired data broaden the therapeutic range of mTORCl inhibitors like rapamycin, which are, at present, exclusively used due to their immunosuppressive function. Furthermore, by performing broad metabolic analyses, a well-orchestrated interplay between intracellular signalling pathways and the T cells' metabolic programmes could be identified as important regulator of the T cells' differentiation fate. Moreover, in vitro induced CD4+ TSCM cells possess superior functional capacities and share fate-determining key factors with their naturally occurring counterparts, assessed by a first-time full transcriptome analysis of in vivo occurring CD4+ TN cell, TSCM cells and central memory (TCM) cells and in vitro induced CD4+ TSCM cells. Of interest, a group of 56 genes, with a unique expression profile in TSCM cells could be identified. Thus, a pharmacological mechanism allowing to confer sternness to activated TN cells has been found which might be highly relevant for the design of novel T cell-based cancer immunotherapies.
Resumo:
General Summary Although the chapters of this thesis address a variety of issues, the principal aim is common: test economic ideas in an international economic context. The intention has been to supply empirical findings using the largest suitable data sets and making use of the most appropriate empirical techniques. This thesis can roughly be divided into two parts: the first one, corresponding to the first two chapters, investigates the link between trade and the environment, the second one, the last three chapters, is related to economic geography issues. Environmental problems are omnipresent in the daily press nowadays and one of the arguments put forward is that globalisation causes severe environmental problems through the reallocation of investments and production to countries with less stringent environmental regulations. A measure of the amplitude of this undesirable effect is provided in the first part. The third and the fourth chapters explore the productivity effects of agglomeration. The computed spillover effects between different sectors indicate how cluster-formation might be productivity enhancing. The last chapter is not about how to better understand the world but how to measure it and it was just a great pleasure to work on it. "The Economist" writes every week about the impressive population and economic growth observed in China and India, and everybody agrees that the world's center of gravity has shifted. But by how much and how fast did it shift? An answer is given in the last part, which proposes a global measure for the location of world production and allows to visualize our results in Google Earth. A short summary of each of the five chapters is provided below. The first chapter, entitled "Unraveling the World-Wide Pollution-Haven Effect" investigates the relative strength of the pollution haven effect (PH, comparative advantage in dirty products due to differences in environmental regulation) and the factor endowment effect (FE, comparative advantage in dirty, capital intensive products due to differences in endowments). We compute the pollution content of imports using the IPPS coefficients (for three pollutants, namely biological oxygen demand, sulphur dioxide and toxic pollution intensity for all manufacturing sectors) provided by the World Bank and use a gravity-type framework to isolate the two above mentioned effects. Our study covers 48 countries that can be classified into 29 Southern and 19 Northern countries and uses the lead content of gasoline as proxy for environmental stringency. For North-South trade we find significant PH and FE effects going in the expected, opposite directions and being of similar magnitude. However, when looking at world trade, the effects become very small because of the high North-North trade share, where we have no a priori expectations about the signs of these effects. Therefore popular fears about the trade effects of differences in environmental regulations might by exaggerated. The second chapter is entitled "Is trade bad for the Environment? Decomposing worldwide SO2 emissions, 1990-2000". First we construct a novel and large database containing reasonable estimates of SO2 emission intensities per unit labor that vary across countries, periods and manufacturing sectors. Then we use these original data (covering 31 developed and 31 developing countries) to decompose the worldwide SO2 emissions into the three well known dynamic effects (scale, technique and composition effect). We find that the positive scale (+9,5%) and the negative technique (-12.5%) effect are the main driving forces of emission changes. Composition effects between countries and sectors are smaller, both negative and of similar magnitude (-3.5% each). Given that trade matters via the composition effects this means that trade reduces total emissions. We next construct, in a first experiment, a hypothetical world where no trade happens, i.e. each country produces its imports at home and does no longer produce its exports. The difference between the actual and this no-trade world allows us (under the omission of price effects) to compute a static first-order trade effect. The latter now increases total world emissions because it allows, on average, dirty countries to specialize in dirty products. However, this effect is smaller (3.5%) in 2000 than in 1990 (10%), in line with the negative dynamic composition effect identified in the previous exercise. We then propose a second experiment, comparing effective emissions with the maximum or minimum possible level of SO2 emissions. These hypothetical levels of emissions are obtained by reallocating labour accordingly across sectors within each country (under the country-employment and the world industry-production constraints). Using linear programming techniques, we show that emissions are reduced by 90% with respect to the worst case, but that they could still be reduced further by another 80% if emissions were to be minimized. The findings from this chapter go together with those from chapter one in the sense that trade-induced composition effect do not seem to be the main source of pollution, at least in the recent past. Going now to the economic geography part of this thesis, the third chapter, entitled "A Dynamic Model with Sectoral Agglomeration Effects" consists of a short note that derives the theoretical model estimated in the fourth chapter. The derivation is directly based on the multi-regional framework by Ciccone (2002) but extends it in order to include sectoral disaggregation and a temporal dimension. This allows us formally to write present productivity as a function of past productivity and other contemporaneous and past control variables. The fourth chapter entitled "Sectoral Agglomeration Effects in a Panel of European Regions" takes the final equation derived in chapter three to the data. We investigate the empirical link between density and labour productivity based on regional data (245 NUTS-2 regions over the period 1980-2003). Using dynamic panel techniques allows us to control for the possible endogeneity of density and for region specific effects. We find a positive long run elasticity of density with respect to labour productivity of about 13%. When using data at the sectoral level it seems that positive cross-sector and negative own-sector externalities are present in manufacturing while financial services display strong positive own-sector effects. The fifth and last chapter entitled "Is the World's Economic Center of Gravity Already in Asia?" computes the world economic, demographic and geographic center of gravity for 1975-2004 and compares them. Based on data for the largest cities in the world and using the physical concept of center of mass, we find that the world's economic center of gravity is still located in Europe, even though there is a clear shift towards Asia. To sum up, this thesis makes three main contributions. First, it provides new estimates of orders of magnitudes for the role of trade in the globalisation and environment debate. Second, it computes reliable and disaggregated elasticities for the effect of density on labour productivity in European regions. Third, it allows us, in a geometrically rigorous way, to track the path of the world's economic center of gravity.
Resumo:
THESIS ABSTRACTThis thesis project was aimed at studying the molecular mechanisms underlying learning and memory formation, in particular as they relate to the metabolic coupling between astrocytes and neurons. For that, changes in the metabolic activity of different mice brain regions after 1 or 9 days of training in an eight-arm radial maze were assessed by (14C) 2-deoxyglucose (2DG) autoradiography. Significant differences in the areas engaged during the behavioral task at day 1 (when animals are confronted for the first time to the learning task) and at day 9 (when animals are highly performing) have been identified. These areas include the hippocampus, the fornix, the parietal cortex, the laterodorsal thalamic nucleus and the mammillary bodies at day 1 ; and the anterior cingulate, the retrosplenial cortex and the dorsal striatum at day 9. Two of these cerebral regions (those presenting the greatest changes at day 1 and day 9: the hippocampus and the retrosplenial cortex, respectively) were microdissected by laser capture microscopy and selected genes related to neuron-glia metabolic coupling, glucose metabolism and synaptic plasticity were analyzed by RT-PCR. 2DG and gene expression analysis were performed at three different times: 1) immediately after the end of the behavioral paradigm, 2) 45 minutes and 3) 6 hours after training. The main goal of this study was the identification of the metabolic adaptations following the learning task. Gene expression results demonstrate that the learning task profoundly modulates the pattern of gene expression in time, meaning that these two cerebral regions with high 2DG signal (hippocampus and retrosplenial cortex) have adapted their metabolic molecular machinery in consequence. Almost all studied genes show a higher expression in the hippocampus at day 1 compared to day 9, while an increased expression was found in the retrosplenial cortex at day 9. We can observe these molecular adaptations with a short delay of 45 minutes after the end of the task. However, 6 hours after training a high gene expression was found at day 9 (compared to day 1) in both regions, suggesting that only one day of training is not sufficient to detect transcriptional modifications several hours after the task. Thus, gene expression data match 2DG results indicating a transfer of information in time (from day 1 to day 9) and in space (from the hippocampus to the retrosplenial cortex), and this at a cellular and a molecular level. Moreover, learning seems to modify the neuron-glia metabolic coupling, since several genes involved in this coupling are induced. These results also suggest a role of glia in neuronal plasticity.RESUME DU TRAVAIL DE THESECe projet de thèse a eu pour but l'étude des mécanismes moléculaires qui sont impliqués dans l'apprentissage et la mémoire et, en particulier, à les mettre en rapport avec le couplage métabolique existant entre les astrocytes et les neurones. Pour cela, des changements de l'activité métabolique dans différentes régions du cerveau des souris après 1 ou 9 jours d'entraînement dans un labyrinthe radial à huit-bras ont été évalués par autoradiographie au 2-désoxyglucose (2DG). Des différences significatives dans les régions engagées pendant la tâche comportementale au jour 1 (quand les animaux sont confrontés pour la première fois à la tâche) et au jour 9 (quand les animaux ont déjà appris) ont été identifiés. Ces régions incluent, au jour 1, l'hippocampe, le fornix, le cortex pariétal, le noyau thalamic laterodorsal et les corps mamillaires; et, au jour 9, le cingulaire antérieur, le cortex retrosplenial et le striatum dorsal. Deux de ces régions cérébrales (celles présentant les plus grands changements à jour 1 et à jour 9: l'hippocampe et le cortex retrosplenial, respectivement) ont été découpées par microdissection au laser et quelques gènes liés au couplage métabolique neurone-glie, au métabolisme du glucose et à la plasticité synaptique ont été analysées par RT-PCR. L'étude 2DG et l'analyse de l'expression de gènes ont été exécutés à trois temps différents: 1) juste après entraînement, 2) 45 minutes et 3) 6 heures après la fin de la tâche. L'objectif principal de cette étude était l'identification des adaptations métaboliques suivant la tâche d'apprentissage. Les résultats de l'expression de gènes démontrent que la tâche d'apprentissage module profondément le profile d'expression des gènes dans le temps, signifiant que ces deux régions cérébrales avec un signal 2DG élevé (l'hippocampe et le cortex retrosplenial) ont adapté leurs « machines moléculaires » en conséquence. Presque tous les gènes étudiés montrent une expression plus élevée dans l'hippocampe au jour 1 comparé au jour 9, alors qu'une expression accrue a été trouvée dans le cortex retrosplenial au jour 9. Nous pouvons observer ces adaptations moléculaires avec un retard court de 45 minutes après la fin de la tâche. Cependant, 6 heures après l'entraînement, une expression de gènes élevée a été trouvée au jour 9 (comparé à jour 1) dans les deux régions, suggérant que seulement un jour d'entraînement ne suffit pas pour détecter des modifications transcriptionelles plusieurs heures après la tâche. Ainsi, les données d'expression de gènes corroborent les résultats 2DG indiquant un transfert d'information dans le temps (de jour 1 à jour 9) et dans l'espace (de l'hippocampe au cortex retrosplenial), et ceci à un niveau cellulaire et moléculaire. D'ailleurs, la tâche d'apprentissage semble modifier le couplage métabolique neurone-glie, puisque de nombreux gènes impliqués dans ce couplage sont induits. Ces observations suggèrent un rôle important de la glie dans les mécanismes de plasticité du système nerveux.