949 resultados para GLOBAL WELL-POSEDNESS
Resumo:
The surrounding capsule of Streptococcus pneumoniae has been identified as a major virulence factor and is targeted by pneumococcal conjugate vaccines (PCV). However, nonencapsulated S. pneumoniae (non-Ec-Sp) have also been isolated globally, mainly in carriage studies. It is unknown if non-Ec-Sp evolve sporadically, if they have high antibiotic nonsusceptiblity rates and a unique, specific gene content. Here, whole-genome sequencing of 131 non-Ec-Sp isolates sourced from 17 different locations around the world was performed. Results revealed a deep-branching classic lineage that is distinct from multiple sporadic lineages. The sporadic lineages clustered with a previously sequenced, global collection of encapsulated S. pneumoniae (Ec-Sp) isolates while the classic lineage is comprised mainly of the frequently identified multilocus sequences types (STs) ST344 (n = 39) and ST448 (n = 40). All ST344 and nine ST448 isolates had high nonsusceptiblity rates to β-lactams and other antimicrobials. Analysis of the accessory genome reveals that the classic non-Ec-Sp contained an increased number of mobile elements, than Ec-Sp and sporadic non-Ec-Sp. Performing adherence assays to human epithelial cells for selected classic and sporadic non-Ec-Sp revealed that the presence of a integrative conjugative element (ICE) results in increased adherence to human epithelial cells (P = 0.005). In contrast, sporadic non-Ec-Sp lacking the ICE had greater growth in vitro possibly resulting in improved fitness. In conclusion, non-Ec-Sp isolates from the classic lineage have evolved separately. They have spread globally, are well adapted to nasopharyngeal carriage and are able to coexist with Ec-Sp. Due to continued use of PCV, non-Ec-Sp may become more prevalent.
Resumo:
This report describes a project begun in January 1989 and completed December 1990, with the primary objective of obtaining sufficiently accurate horizontal and vertical control by using Global Positioning System (GPS) for highway applications. The ISU research group studied the operations of the Ashtech GPS receiver in static, pseudo-static, kinematic, and pseudo-kinematic modes. By using the Electronic Distance Measuring Instrument (EDMI) Calibration Baseline at ISU, the GPS receiver was tested for distance measurement accuracy. It was found that GPS measurements differed from the baseline distance by about 5.3 mm. Four projects were undertaken to further evaluate and improve the horizontal as well as the vertical accuracies of the GPS receiver -- (1) The Campus Project: with all points concentrated within a one-mile radius; (2) The Des Moines Project: a typical DOT project with all the points within a five-mile radius; (3) The Iowa Project: with all points within a 100-mile radius in the state of Iowa; and (4) The Mustang Project: an extension of the Iowa project, including a typical DOT project of about 10 miles within the inner 30 mile radius of the Iowa project.
Resumo:
INTRODUCTION: Respiratory therapy is a keystone of the treatment for cystic fibrosis (CF) lung disease, but it is time consuming. OBJECTIVES: We aimed to assess the total time spent on respiratory therapy, including chest physiotherapy (CPT) and physical activity (PA), as well as inhalation therapy (IT) and maintenance of materials (MM) to rationalise and optimise treatment. METHODS: A cross-sectional prospective study in a paediatric CF cohort. A questionnaire was developed to look at the time spent on respiratory care over 3 months. Enrolled in this study are all CF patients aged from 6 to 16 years (the exclusion criterion was lung transplantation). RESULTS: Of the 40 enrolled patients, 22 participated (13 boys and 9 girls), with a mean age of 11 years. The patients spent approximately 19.46 h per week (standard deviation ± 7.53, 8.00-35.25 h) on therapy: CPT (30.58%), IT (15.11%), PA (50%) and MM (4.32%), without statistical significance between sexes. CONCLUSION: In our cohort, CF patients spent an average of nearly 20 h a week in respiratory therapy, within a wide range of between 8 h to almost 36 h a week. PA consumes almost half of the time. Physicians have to take into consideration the burden of the treatment, to optimise the therapy.
Resumo:
Algunes de les investigacions desenvolupades en els últims temps fan cada cop més incidència en la importància de l’enfocament metodològic sota el qual s’integren les noves tecnologies a l’aula. L’estudi que es presenta a continuació parteix de l’anàlisi d’una experiència d’integració de les TIC en una proposta de projectes de treball global desenvolupada en dues aules d’educació infantil de l’escola la Sínia de Vic. El propòsit general del treball és mostrar quins són els efectes que aquestes tecnologies exerceixen sobre l’alumnat i el professorat implicat, així com la contribució d’un recurs com el bloc en la relació entre l’escola i la família, prenent com a fil conductor el projecte portat a terme. En aquest sentit, alguns dels resultats més rellevants de la investigació mostren com els rols desenvolupats per l’alumnat i el professorat de l’aula influeixen directament en les actituds i la motivació de l’alumnat envers les tasques, i finalment posen de manifest la importància dels plantejaments didàctics sota els quals s’utilitzen els recursos TIC a l’aula. D’altra banda, s’ha vist que el bloc no ha tingut les mateixes repercussions en totes les famílies per diversos motius particulars que requeriran d’un treball més a fons per potenciar-ho molt més entre els pares i mares.
Resumo:
The Caulobacter DNA methyltransferase CcrM is one of five master cell-cycle regulators. CcrM is transiently present near the end of DNA replication when it rapidly methylates the adenine in hemimethylated GANTC sequences. The timing of transcription of two master regulator genes and two cell division genes is controlled by the methylation state of GANTC sites in their promoters. To explore the global extent of this regulatory mechanism, we determined the methylation state of the entire chromosome at every base pair at five time points in the cell cycle using single-molecule, real-time sequencing. The methylation state of 4,515 GANTC sites, preferentially positioned in intergenic regions, changed progressively from full to hemimethylation as the replication forks advanced. However, 27 GANTC sites remained unmethylated throughout the cell cycle, suggesting that these protected sites could participate in epigenetic regulatory functions. An analysis of the time of activation of every cell-cycle regulatory transcription start site, coupled to both the position of a GANTC site in their promoter regions and the time in the cell cycle when the GANTC site transitions from full to hemimethylation, allowed the identification of 59 genes as candidates for epigenetic regulation. In addition, we identified two previously unidentified N(6)-methyladenine motifs and showed that they maintained a constant methylation state throughout the cell cycle. The cognate methyltransferase was identified for one of these motifs as well as for one of two 5-methylcytosine motifs.
Resumo:
This paper evaluates the global welfare impact of China's trade integration and technological change in a multi-country quantitative Ricardian-Heckscher-Ohlin model.We simulate two alternative growth scenarios: a "balanced" one in which China's productivity grows at the same rate in each sector, and an "unbalanced" one in whichChina's comparative disadvantage sectors catch up disproportionately faster to theworld productivity frontier. Contrary to a well-known conjecture (Samuelson 2004),the large majority of countries experience significantly larger welfare gains whenChina's productivity growth is biased towards its comparative disadvantage sectors.This finding is driven by the inherently multilateral nature of world trade.
Resumo:
While genetic mutation is a hallmark of cancer, many cancers also acquire epigenetic alterations during tumorigenesis including aberrant DNA hypermethylation of tumor suppressors, as well as changes in chromatin modifications as caused by genetic mutations of the chromatin-modifying machinery. However, the extent of epigenetic alterations in cancer cells has not been fully characterized. Here, we describe complete methylome maps at single nucleotide resolution of a low-passage breast cancer cell line and primary human mammary epithelial cells. We find widespread DNA hypomethylation in the cancer cell, primarily at partially methylated domains (PMDs) in normal breast cells. Unexpectedly, genes within these regions are largely silenced in cancer cells. The loss of DNA methylation in these regions is accompanied by formation of repressive chromatin, with a significant fraction displaying allelic DNA methylation where one allele is DNA methylated while the other allele is occupied by histone modifications H3K9me3 or H3K27me3. Our results show a mutually exclusive relationship between DNA methylation and H3K9me3 or H3K27me3. These results suggest that global DNA hypomethylation in breast cancer is tightly linked to the formation of repressive chromatin domains and gene silencing, thus identifying a potential epigenetic pathway for gene regulation in cancer cells.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
Life cycle analyses (LCA) approaches require adaptation to reflect the increasing delocalization of production to emerging countries. This work addresses this challenge by establishing a country-level, spatially explicit life cycle inventory (LCI). This study comprises three separate dimensions. The first dimension is spatial: processes and emissions are allocated to the country in which they take place and modeled to take into account local factors. Emerging economies China and India are the location of production, the consumption occurs in Germany, an Organisation for Economic Cooperation and Development country. The second dimension is the product level: we consider two distinct textile garments, a cotton T-shirt and a polyester jacket, in order to highlight potential differences in the production and use phases. The third dimension is the inventory composition: we track CO2, SO2, NO (x), and particulates, four major atmospheric pollutants, as well as energy use. This third dimension enriches the analysis of the spatial differentiation (first dimension) and distinct products (second dimension). We describe the textile production and use processes and define a functional unit for a garment. We then model important processes using a hierarchy of preferential data sources. We place special emphasis on the modeling of the principal local energy processes: electricity and transport in emerging countries. The spatially explicit inventory is disaggregated by country of location of the emissions and analyzed according to the dimensions of the study: location, product, and pollutant. The inventory shows striking differences between the two products considered as well as between the different pollutants considered. For the T-shirt, over 70% of the energy use and CO2 emissions occur in the consuming country, whereas for the jacket, more than 70% occur in the producing country. This reversal of proportions is due to differences in the use phase of the garments. For SO2, in contrast, over two thirds of the emissions occur in the country of production for both T-shirt and jacket. The difference in emission patterns between CO2 and SO2 is due to local electricity processes, justifying our emphasis on local energy infrastructure. The complexity of considering differences in location, product, and pollutant is rewarded by a much richer understanding of a global production-consumption chain. The inclusion of two different products in the LCI highlights the importance of the definition of a product's functional unit in the analysis and implications of results. Several use-phase scenarios demonstrate the importance of consumer behavior over equipment efficiency. The spatial emission patterns of the different pollutants allow us to understand the role of various energy infrastructure elements. The emission patterns furthermore inform the debate on the Environmental Kuznets Curve, which applies only to pollutants which can be easily filtered and does not take into account the effects of production displacement. We also discuss the appropriateness and limitations of applying the LCA methodology in a global context, especially in developing countries. Our spatial LCI method yields important insights in the quantity and pattern of emissions due to different product life cycle stages, dependent on the local technology, emphasizing the importance of consumer behavior. From a life cycle perspective, consumer education promoting air-drying and cool washing is more important than efficient appliances. Spatial LCI with country-specific data is a promising method, necessary for the challenges of globalized production-consumption chains. We recommend inventory reporting of final energy forms, such as electricity, and modular LCA databases, which would allow the easy modification of underlying energy infrastructure.
Resumo:
While the morphological and electrophysiological changes underlying diabetic peripheral neuropathy (DPN) are relatively well described, the involved molecular mechanisms remain poorly understood. In this study, we investigated whether phenotypic changes associated with early DPN are correlated with transcriptional alterations in the neuronal (dorsal root ganglia [DRG]) or the glial (endoneurium) compartments of the peripheral nerve. We used Ins2(Akita/+) mice to study transcriptional changes underlying the onset of DPN in type 1 diabetes mellitus (DM). Weight, blood glucose and motor nerve conduction velocity (MNCV) were measured in Ins2(Akita/+) and control mice during the first three months of life in order to determine the onset of DPN. Based on this phenotypic characterization, we performed gene expression profiling using sciatic nerve endoneurium and DRG isolated from pre-symptomatic and early symptomatic Ins2(Akita/+) mice and sex-matched littermate controls. Our phenotypic analysis of Ins2(Akita/+) mice revealed that DPN, as measured by reduced MNCV, is detectable in affected animals already one week after the onset of hyperglycemia. Surprisingly, the onset of DPN was not associated with any major persistent changes in gene expression profiles in either sciatic nerve endoneurium or DRG. Our data thus demonstrated that the transcriptional programs in both endoneurial and neuronal compartments of the peripheral nerve are relatively resistant to the onset of hyperglycemia and hypoinsulinemia suggesting that either minor transcriptional alterations or changes on the proteomic level are responsible for the functional deficits associated with the onset of DPN in type 1 DM.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
Diplomityö tehtiin Partek Oyj Abp:lle antamaan IT-järjestelmistä vastuussa oleville ja niihin tukeutuville johtohenkilöille yleisnäkemys IT-sovellusintegroinnista sekä luomaan ohjeet integrointi projekteihin. Diplomityön alkuosassa esitellään liiketoiminnan prosessien pulmakohtia ja sovellusintegrointien liiketoiminnalle tuomia etuja yleisellä tasolla perustuen kirjallisuuteen. Yleisen tason etuja saadaan mm. nopeampien prosessien, paremman tiedon saatavuuden ja ihmisille tulevien uusien toimintatapojen kautta tulevista eduista. Työn seuraavassa osiossa esitellään mitä sovellusintegraatio tarkoittaa käytännössä, mitä erilaisia vaihtoehtoja integroinneille on ja mitä etuja ja haittoja erilaisista integrointitavoista on. Integrointitavoista viesti-pohjainen integrointitapa on noussut suosituimmaksi sen yksinkertaisuuden, luotettavuuden ja helpon liitettävyyden takia. Integrointisovelluksilla on mahdollista siirtää, muokata, prosessoida ja varastoida viestejä. Näiden ominaisuuksien avulla on mahdollista luoda reaaliaikaisia yhteistyöverkostoja. Tämä osio perustuu kirjallisuuteen , artikkeleihin ja haastatteluihin. Kolmas osio keskittyy integrointi projektin ominaispiirteisiin luoden toimintakartan integrointiprojektin kululle. Osiossa esitellään huomioitavat tekniset asiat, kustannukset ja edut sekä mallipohjia integroinnin dokumentointiin. Osio perustuu omiin kokemuksiin, haastatteluihin sekä kirjallisuuteen. Neljännessä osiossa esitellään Partekissa tehty integrointiprojekti. Integrointityö tehtiin ostajille tarkoitetun toimittajarekisterin (PPM) ja ERP-järjestelmän (Baan) välillä. Integrointiin käytettiin yhtä suosituinta integrointityökalua nimeltään IBM WebSphere MQ.Osio perustuu projektin dokumentointiin, omiin kokemuksiin ja kirjallisuuteen. Diplomityön päättää yhteenveto. Kolme pääetua voidaan saavuttaa integroinneilla ja toimintakartalla; tiedon luotettavuus paranee, toimintakartalla saadaan integroinneille malli ja luodaan riippumattomuutta tiettyihin avain henkilöihin tarkalla dokumentoinnilla ja toimintatapojen standardoinnilla.
Resumo:
Tämän työn tarkoituksena on tutkia prosessien uudelleensuunnittelua ja erityisesti hankintaprosessien uudistamista kansainvälisessä prosessiautomaatioyrityksessä. Työn aihealuetta tutkitaan sekä henkilöstön, uuden teknologian että prosessien kehittämisen näkökulmasta. Prosessien kehittämisessä työkaluna on käytetty tunnettua laatutyökalua, Six Sigmaa. Työn päätavoitteena on luoda uudet toimintamallit kehitettäville prosesseille. Kirjallisuuden lisäksi työ perustuu kirjoittajan kokemuksiin ja havaintoihin projektitiimin jäsenenä. Prosessien kehittämistä tarkastellaan myös muutoksenhallinnan näkökulmasta. Tämä on alue, jota ei saisi koskaan jättää huomiotta kehityshankkeissa. Kehitettäessä liiketoimintaprosesseja muutoksenhallinta on menestyksen kannalta ensisijaisen tärkeää. Muutoksenhallintaa tutkitaan työssä sekä organisaation että yksilön kannalta. Tässä työssä esitellään lisäksi maailmanlaajuisesti tunnettu ja käytetty laatutyökalu, Six Sigma. Six Sigmaa on käytetty myös työn lopussa tarkasteltavassa case-osuudessa. Case-osuudessa prosesseja tutkitaan aina nykytilasta uusiin toimintamalleihin saakka. Prosesseja ja niiden suorituskykyä analysoidaan yhtäjaksoisesti kehitysprojektien edetessä.
Resumo:
Tämän tutkielman tavoitteena on perehtyä globaalin yrityksen laskentatoimen tietojärjestelmien yhtenäistämiseen ja käyttöönottoon esimerkkinä UPM-Kymmene konsernin projekti. Tutkielmassa sovelletaan hermeneuttista tutkimusotetta. Teoreettisesti aihetta tarkastellaan globalisoitumisen ja laskentatoimen tietojärjestelmille asetettavien vaatimusten pohjalta, sekä järjestelmän muutosprosessin eri vaiheissa huomioon otettavien muuttujien perusteella. Yhtenäisen laskentatoimen tietojärjestelmän tuomat edut globaalille yritykselle ovat ilmeisiä. Ennen yhtenäisen projektin kehittelyä on olennaista tutkia lähtökohdat projektin onnistumiselle ja suunnitella projektin eri vaiheet huolella. Tutkielmassa havaitaan myös, että globaalissa yrityksessä tulee huomioida eri yrityskulttuurit sekä tulosyksiköiden erilaiset toimintatavat. Johtopäätöksenä todetaan, että sekä yritysjohdon että tulosyksiköiden sitoutuneisuus projektiin ja yhtenäiset tavoitteet ovat oleellisia projektin onnistumisen kannalta.
Resumo:
Tutkimuksen ensisijaisena tavoitteena oli tarkastella luottamuksen rakentumista virtuaalitiimissä. Keskeistä tarkastelussa olivat luottamuksen lähteiden löytäminen, suhteen rakentuminen sekä teknologiavälitteinen kommunikaatio. Myös käytännön keinoja ja sovelluksia etsittiin. Tässä tutkimuksessa luottamus nähtiin tärkeänä yhteistyön mahdollistajana sekä keskeisenä elementtinä ihmisten välisten suhteiden rakentumisessa. Tämä tutkimus oli empiirinen ja kuvaileva tapaustutkimus. Tutkimuksessa kvalitatiivista aineistoa kerättiin pääasiassa web-pohjaisen kyselyn sekä puhelinhaastattelun avulla. Aineistonkeruu toteutettiin siis pääasiassa virtuaalisesti. Saatu aineisto analysoitiin teemoittelun avulla. Tässä työssä teemoja etsittiin tekstistä pääasiassa teoriasta johdettujen oletusten perusteella. Tutkimuksen tuloksena oli, että luottamusta rakentavia mekanismeja ovat, karkeasti luokiteltuna, yhteiset päämäärät ja vastuut, kommunikaatio, sosiaalinen kanssakäyminen ja informaation jakaminen, toisten huomioiminen ja henkilökohtaiset ominaisuudet. Mekanismit eivät suuresti eronneet luottamuksen rakentumisen mekanismeista perinteisessä kontekstissa. Virtuaalitiimityön alkuvaiheessa luottamus pohjautui käsityksille toisten tiimin jäsenten kyvykkyydestä. Myös institutionaalinen identifioituminen loi pohjaa luottamukselle alkuvaiheessa. Muuten luottamus rakentui vähän kerrassaan tehtävään liittyvän kommunikaation ja sosiaalisen kommunikaation kautta. Tekojen merkitys korostui erityisesti ajan myötä. Työssä esitettiin myös käytännön keinoja luottamuksen rakentamiseksi. Olemassa olevien teknologioiden havaittiin tukevan hyvin suhteen rakentumista tiedon jakamiseen ja sen varastoimiseen liittyvissä tehtävissä. Sen sijaan vuorovaikutuksen näkökulmasta tuen ei nähty olevan yhtä kattavaa. Kaiken kaikkiaan kuitenkin parannuksella sosiaalisissa suhteissa voitaneen saada enemmän aikaan kuin parannuksilla teknologian suhteen.