959 resultados para critical communicative methodology
Resumo:
Yritykset ovat pakotettuja erilaisiin yhteistyömuotoihin pärjätäkseen kiristyvässä kilpailussa. Yhteistyösuhteet kulkevat eri nimillä riippuen teollisuuden alasta ja siitä, missä kohtaa toimitusketjua ne toteutuvat, mutta periaatteessa kaikki pohjautuvat samaan ideaan kuin Vendor Managed Inventory (VMI); varastoon jakysyntään liittyvä tieto jaetaan toimitusketjun eri osapuolien kesken, jotta tuotanto, jakelu ja varastonhallinta olisi mahdollista optimoida. Vendor Managed Inventory on ideana yksinkertainen, mutta vaatii onnistuakseen paljon. Perusolettamus on, että toimittajan on kyettävä hallinnoimaan asiakkaan varastoa paremmin kuin asiakas itse. Tämä ei kuitenkaan ole mahdollista ilman riittävää yhteistyötä, oikeanlaista informaatiota tai sopivia tuoteominaisuuksia. Tämän työn tarkoitus on esitellä kriittiset menestystekijät valmistajan kannalta, kun näkyvyys todelliseen kysyntään on heikko ja kyseessäolevat tuotteet ovat ominaisuuksiltaan toimintamalliin huonosti soveltuvia. VMItoimintamallin soveltuvuus matkapuhelimia valmistavan yrityksen liiketoimintaan, sekä sen vaikutus asiakasyhteistyöhön, kannattavuuteen ja toiminnan tehostamiseen on myös tutkittu.
Resumo:
La réponse métabolique de l'obèse apparemment « sainen situation d'agression aiguë (polytraumatisés, traumatisés crâniens, patients chirurgicaux, grands brûlés, opérations électives) ne se distingue pas ou peu de celle de l'individu non-obèse. Cependant, les complications médicales liées à l'agression (insuffisances respiratoire et cardiaque, bronchopneumonie, infections de plaies, thrombophlébites et embolies) demeurent plus importantes chez l'obèse morbide que chez l'individu de poids normal. Grâce à l'inflation de ses réserves énergétiques, l'obèse apparemment sain est avantagé, par rapport au sujet mince, au cours d'une agression nutritionnelle chronique telle que le jeûne prolongé. Le facteur fonctionnel limitant la survie dépend avant tout de la composition corporelle initiale et du degré d'adaptation métabolique (et comportementale) en particulier du degré de conservation de la masse maigre par rapport à la masse grasse. La mobilisation accrue de la masse grasse associée à la perte de poids chez l'obèse (par rapport à son homologue non-obèse) est favorable à une prolongation de la vie, car, en brûlant davantage de graisse corporelle, la part des protéines corporelles endogènes utilisée à des fins énergétiques est plus faible. Il s'ensuit chez l'obèse qu'un niveau de masse maigre critique pour la survie n'est atteint qu'après une réduction très marquée de ses réserves énergétiques. En revanche, le sujet mince perd davantage de masse maigre lors de l'amaigrissement et, par conséquent, son métabolisme de repos diminuera plus rapidement que celui du sujet obèse. Cela peut constituer un avantage énergétique évident en termes d'économie d'énergie consécutive à l'adaptation métabolique, mais un inconvénient majeur quant à la durée de la survie. The metabolic response of « apparently healthyobese individuals following acute injury (multiple trauma, head injury and surgical patients, extended burns, elective surgery) is not dramatically different from that of a non-obese individuals. However, the medical complications following the injury (respiratory and cardiac insufficiency, broncho-pneumonia, infections of wounds, trombophlebitis and embolism) are more prevalent in morbid obese patients than in individuals of normal body weight. Because of a large increase in their individuals energy store, "apparently healthy" obese individuals have an advantage over very lean subjects when exposed to a chronic nutritional aggression such as total fasting. The functional limiting factor for survival depends primarily on initial body composition and the magnitude of metabolic adaptation (including behavioral adaptation). The key factor is the extent to which the fat-free mass is maintained (versus to the fat mass) during weight loss. The increased proportion of body fat mobilized during weight loss in obese patients, compared with their non-obese counterparts, favors prolonged survival, because more adipose tissue is burned off, the fraction of body protein endogenously utilized for energy purpose individuals, is smaller. This implies that obese individuals do not reach a fat-free mass "critical" for their survival until their energy stores reach very low values. In contrast, lean subject tend to lose more fat-free mass during weight loss than obese subjects and, as a result, their energy expenditure drops more rapidly. This may offer a potential advantage in terms of energy economy (more energy saving) but a major disadvantage in terms of duration of survival.
Resumo:
Tämän diplomityön tavoitteena oli selvittää arvoketjuanalyysin avulla toiminnot, joilla voittoatavoittelemattoman, julkisen osakeyhtiön toimintaa voitaisiin kuvata. Tarkoituksena oli selvittää mainitut toiminnot yleisesti ja luoda malli kohdeyrityksen arvoketjusta ja sen toiminnoista. Tutkielma jakautuu teoreettiseen ja empiiriseen osaan. Ensimmäinen pohjautuu aikaisempaan tutkimukseen ja kirjallisuuteen sidosryhmistä, arvon muodostumisesta ja arvoketjuanalyysistä. Jälkimmäinen on laadullista tapaustutkimusta. Empiriassa mallinnettiin Lappeenranta Innovation Oy:nsisäisiä toimintoja ja sidosryhmien odotuksia. Empiirinen tutkimus perustui kohdeyrityksen omistajille ja henkilöstölle tehtyihin haastatteluihin sekä yrityksen toiminnan päivittäiseen seurantaan. Johtopäätöksenätodettiin, että julkisen, voittoa tavoittelemattoman yrityksen toiminnot on mahdollista kuvata arvoketjuanalyysin avulla. Alan ja yrityksen asettamat erityispiirteet toivat haasteita määrittelylle, mutta silti arvoketju antoi selkeän tavan kohdeyrityksen toimintojen mallintamiselle.
Resumo:
BACKGROUND: The proportion of surgery performed as a day case varies greatly between countries. Low rates suggest a large growth potential in many countries. Measuring the potential development of one day surgery should be grounded on a comprehensive list of eligible procedures, based on a priori criteria, independent of local practices. We propose an algorithmic method, using only routinely available hospital data to identify surgical hospitalizations that could have been performed as one day treatment. METHODS: Moving inpatient surgery to one day surgery was considered feasible if at least one surgical intervention was eligible for one day surgery and if none of the following criteria were present: intervention or affection requiring an inpatient stay, patient transferred or died, and length of stay greater than four days. The eligibility of a procedure to be treated as a day case was mainly established on three a priori criteria: surgical access (endoscopic or not), the invasiveness of the procedure and the size of the operated organ. Few overrides of these criteria occurred when procedures were associated with risk of immediate complications, slow physiological recovery or pain treatment requiring hospital infrastructure. The algorithm was applied to a random sample of one million inpatient US stays and more than 600 thousand Swiss inpatient stays, in the year 2002. RESULTS: The validity of our method was demonstrated by the few discrepancies between the a priori criteria based list of eligible procedures, and a state list used for reimbursement purposes, the low proportion of hospitalizations eligible for one day care found in the US sample (4.9 versus 19.4% in the Swiss sample), and the distribution of the elective procedures found eligible in Swiss hospitals, well supported by the literature. There were large variations of the proportion of candidates for one day surgery among elective surgical hospitalizations between Swiss hospitals (3 to 45.3%). CONCLUSION: The proposed approach allows the monitoring of the proportion of inpatient stay candidates for one day surgery. It could be used for infrastructure planning, resources negotiation and the surveillance of appropriate resource utilization.
Resumo:
Although canonical Notch signaling regulates multiple hematopoietic lineage decisions including T cell and marginal zone B cell fate specification, the downstream molecular mediators of Notch function are largely unknown. We showed here that conditional inactivation of Hes1, a well-characterized Notch target gene, in adult murine bone marrow (BM) cells severely impaired T cell development without affecting other Notch-dependent hematopoietic lineages such as marginal zone B cells. Competitive mixed BM chimeras, intrathymic transfer experiments, and in vitro culture of BM progenitors on Delta-like-expressing stromal cells further demonstrated that Hes1 is required for T cell lineage commitment, but dispensable for Notch-dependent thymocyte maturation through and beyond the beta selection checkpoint. Furthermore, our data strongly suggest that Hes1 is essential for the development and maintenance of Notch-induced T cell acute lymphoblastic leukemia. Collectively, our studies identify Hes1 as a critical but context-dependent mediator of canonical Notch signaling in the hematopoietic system.
Resumo:
Summary: Particulate air pollution is associated with increased cardiovascular risk. The induction of systemic inflammation following particle inhalation represents a plausible mechanistic pathway. The purpose of this study was to assess the associations of short-term exposure to ambient particulate matters of aerodynamic diameter less than 10 μm (PM10) with circulating inflammatory markers in 6183 adults in Lausanne, Switzerland. The results show that short-term exposure to PM10 was associated with higher levels of circulating IL-6 and TNF-α. The positive association of PM10 with markers of systemic inflammation materializes the link between air pollution and cardiovascular risk. Background: Variations in short-term exposure to particulate matters (PM) have been repeatedly associated with daily all-cause mortality. Particle-induced inflammation has been postulated to be one of the important mechanisms for increased cardiovascular risk. Experimental in-vitro, in-vivo and controlled human studies suggest that interleukin 6 (IL-6) and tumor-necrosis-factor alpha (TNF-α) could represent key mediators of the inflammatory response to PM. The associations of short-term exposure to ambient PM with circulating inflammatory markers have been inconsistent in studies including specific subgroups so far. The epidemiological evidence linking short-term exposure to ambient PM and systemic inflammation in the general population is scarce. So far, large-scale population-based studies have not explored important inflammatory markers such as IL-6, IL-1β or TNF-α. We therefore analyzed the associations between short-term exposure to ambient PM10 and circulating levels of high-sensitive CRP (hs-CRP), IL-6, IL-1β and TNF-α in the population-based CoLaus study. Objectives: To assess the associations of short-term exposure to ambient particulate matters of aerodynamic diameter less than 10 μm (PM10) with circulating inflammatory markers, including hs-CRP, IL-6, IL-1β and TNF-α, in adults aged 35 to 75 years from the general population. Methodology: All study subjects were participants to the CoLaus study (www.colaus.ch) and the baseline examination was carried out from 2003 to 2006. Overall, 6184 participants were included. For the present analysis, 6183 participants had data on at least one of the four measured circulating inflammatory markers. The monitoring data was obtained from the website of Swiss National Air Pollution Monitoring Network (NABEL). We analyzed data on PM10 as well as outside air temperature, pressure and humidity. Hourly concentrations of PM10 were collected from 1 January 2003 to 31 December 2006. Robust linear regression (PROC ROBUSTREG) was used to evaluate the relationship between cytokine inflammatory and PM10. We adjusted all analyses for age, sex, body mass index, smoking status, alcohol consumption, diabetes status, hypertension status, education levels, zip code, and statin intake. All data were adjusted for the effects of weather by including temperature, barometric pressure, and season as covariates in the adjusted models. We performed simple and multiple logistic regression analyses. Descriptive statistical analysis used the Wilcoxon rank sum test (for medians). All data analyses were performed using SAS software (version 9.2; SAS Institute Inc., Cary, NC, USA), and a two-sided significance level of 5% was used. Results: PM10 levels averaged over 24 hours were significantly and positively associated with continuous IL-6 and TNF-α levels, in the whole study population both in unadjusted and adjusted analyses. For each cytokine, there was a similar seasonal pattern, with wider confidence intervals in summer than during the other seasons, which might partly be due to the smaller number of participants examined in summer. The associations of PM10 with IL-6 and TNF-α were also found after having dichotomized these cytokines into high versus low levels, which suggests that the associations of PM10 with the continuous cytokine levels are very robust to any distributional assumption and to potential outlier values. In contrast with what we observed for continuous IL-1β levels, high PM10 levels were significantly associated with high IL-1β. PM10 was significantly associated with IL-6 and TNF-α in men, but with TNF-α only in women. However, there was no significant statistical interaction between PM10 and sex. For IL-6 and TNF-α, the associations tended to be stronger in younger people, with a significant interaction between PM10 and age groups for IL-6. PM10 was significantly associated with IL-6 and TNF-α in the healthy group and also in the "non-healthy" group, although the statistical interaction between healthy status and PM10 was not significant. Conclusion: In summary, we found significant independent positive associations of short-term exposure to PM10 with circulating levels of IL-6 and TNF-α in the adult population of Lausanne. Our findings strongly support the idea that short-term exposure to PM10 is sufficient to induce systemic inflammation on a broad scale in the general population. From a public health perspective, the reported association of elevated inflammatory cytokines with short-term exposure to PM10 in a city with relatively clean air such as Lausanne supports the importance of limiting urban air pollution levels.
Resumo:
Management of neurocritical care patients is focused on the prevention and treatment of secondary brain injury, i.e. the number of pathophysiological intracerebral (edema, ischemia, energy dysfunction, seizures) and systemic (hyperthermia, disorders of glucose homeostasis) events that occur following the initial insult (stroke, hemorrhage, head trauma, brain anoxia) that may aggravate patient outcome. The current therapeutic paradigm is based on multimodal neuromonitoring, including invasive (intracranial pressure, brain oxygen, cerebral microdialysis) and non-invasive (transcranial doppler, near-infrared spectroscopy, EEG) tools that allows targeted individualized management of acute coma in the early phase. The aim of this review is to describe the utility of multimodal neuromonitoring for the critical care management of acute coma.
Resumo:
Converging evidence favors an abnormal susceptibility to oxidative stress in schizophrenia. Decreased levels of glutathione (GSH), the major cellular antioxidant and redox regulator, was observed in cerebrospinal-fluid and prefrontal cortex of patients. Importantly, abnormal GSH synthesis of genetic origin was observed: Two case-control studies showed an association with a GAG trinucleotide repeat (TNR) polymorphism in the GSH key synthesizing enzyme glutamate-cysteine-ligase (GCL) catalytic subunit (GCLC) gene. The most common TNR genotype 7/7 was more frequent in controls, whereas the rarest TNR genotype 8/8 was three times more frequent in patients. The disease associated genotypes (35% of patients) correlated with decreased GCLC protein, GCL activity and GSH content. Similar GSH system anomalies were observed in early psychosis patients. Such redox dysregulation combined with environmental stressors at specific developmental stages could underlie structural and functional connectivity anomalies. In pharmacological and knock-out (KO) models, GSH deficit induces anomalies analogous to those reported in patients. (a) morphology: spine density and GABA-parvalbumine immunoreactivity (PV-I) were decreased in anterior cingulate cortex. KO mice showed delayed cortical PV-I at PD10. This effect is exacerbated in mice with increased DA from PD5-10. KO mice exhibit cortical impairment in myelin and perineuronal net known to modulate PV connectivity. (b) physiology: In cultured neurons, NMDA response are depressed by D2 activation. In hippocampus, NMDA-dependent synaptic plasticity is impaired and kainate induced g-oscillations are reduced in parallel to PV-I. (c) cognition: low GSH models show increased sensitivity to stress, hyperactivity, abnormal object recognition, olfactory integration and social behavior. In a clinical study, GSH precursor N-acetyl cysteine (NAC) as add on therapy, improves the negative symptoms and decreases the side effects of antipsychotics. In an auditory oddball paradigm, NAC improves the mismatched negativity, an evoked potential related to pre-attention and to NMDA receptors function. In summary, clinical and experimental evidence converge to demonstrate that a genetically induced dysregulation of GSH synthesis combined with environmental insults in early development represent a major risk factor contributing to the development of schizophrenia
Resumo:
Monoubiquitination of the Fanconi anaemia protein FANCD2 is a key event leading to repair of interstrand cross-links. It was reported earlier that FANCD2 co-localizes with NBS1. However, the functional connection between FANCD2 and MRE11 is poorly understood. In this study, we show that inhibition of MRE11, NBS1 or RAD50 leads to a destabilization of FANCD2. FANCD2 accumulated from mid-S to G2 phase within sites containing single-stranded DNA (ssDNA) intermediates, or at sites of DNA damage, such as those created by restriction endonucleases and laser irradiation. Purified FANCD2, a ring-like particle by electron microscopy, preferentially bound ssDNA over various DNA substrates. Inhibition of MRE11 nuclease activity by Mirin decreased the number of FANCD2 foci formed in vivo. We propose that FANCD2 binds to ssDNA arising from MRE11-processed DNA double-strand breaks. Our data establish MRN as a crucial regulator of FANCD2 stability and function in the DNA damage response.
Resumo:
In Switzerland, organ procurement is well organized at the national-level but transplant outcomes have not been systematically monitored so far. Therefore, a novel project, the Swiss Transplant Cohort Study (STCS), was established. The STCS is a prospective multicentre study, designed as a dynamic cohort, which enrolls all solid organ recipients at the national level. The features of the STCS are a flexible patient-case system that allows capturing all transplant scenarios and collection of patient-specific and allograft-specific data. Beyond comprehensive clinical data, specific focus is directed at psychosocial and behavioral factors, infectious disease development, and bio-banking. Between May 2008 and end of 2011, the six Swiss transplant centers recruited 1,677 patients involving 1,721 transplantations, and a total of 1,800 organs implanted in 15 different transplantation scenarios. 10 % of all patients underwent re-transplantation and 3% had a second transplantation, either in the past or during follow-up. 34% of all kidney allografts originated from living donation. Until the end of 2011 we observed 4,385 infection episodes in our patient population. The STCS showed operative capabilities to collect high-quality data and to adequately reflect the complexity of the post-transplantation process. The STCS represents a promising novel project for comparative effectiveness research in transplantation medicine.
Resumo:
Résumé L'eau est souvent considérée comme une substance ordinaire puisque elle est très commune dans la nature. En fait elle est la plus remarquable de toutes les substances. Sans l'eau la vie sur la terre n'existerait pas. L'eau représente le composant majeur de la cellule vivante, formant typiquement 70 à 95% de la masse cellulaire et elle fournit un environnement à d'innombrables organismes puisque elle couvre 75% de la surface de terre. L'eau est une molécule simple faite de deux atomes d'hydrogène et un atome d'oxygène. Sa petite taille semble en contradiction avec la subtilité de ses propriétés physiques et chimiques. Parmi celles-là, le fait que, au point triple, l'eau liquide est plus dense que la glace est particulièrement remarquable. Malgré son importance particulière dans les sciences de la vie, l'eau est systématiquement éliminée des spécimens biologiques examinés par la microscopie électronique. La raison en est que le haut vide du microscope électronique exige que le spécimen biologique soit solide. Pendant 50 ans la science de la microscopie électronique a adressé ce problème résultant en ce moment en des nombreuses techniques de préparation dont l'usage est courrant. Typiquement ces techniques consistent à fixer l'échantillon (chimiquement ou par congélation), remplacer son contenu d'eau par un plastique doux qui est transformé à un bloc rigide par polymérisation. Le bloc du spécimen est coupé en sections minces (denviron 50 nm) avec un ultramicrotome à température ambiante. En général, ces techniques introduisent plusieurs artefacts, principalement dû à l'enlèvement d'eau. Afin d'éviter ces artefacts, le spécimen peut être congelé, coupé et observé à basse température. Cependant, l'eau liquide cristallise lors de la congélation, résultant en une importante détérioration. Idéalement, l'eau liquide est solidifiée dans un état vitreux. La vitrification consiste à refroidir l'eau si rapidement que les cristaux de glace n'ont pas de temps de se former. Une percée a eu lieu quand la vitrification d'eau pure a été découverte expérimentalement. Cette découverte a ouvert la voie à la cryo-microscopie des suspensions biologiques en film mince vitrifié. Nous avons travaillé pour étendre la technique aux spécimens épais. Pour ce faire les échantillons biologiques doivent être vitrifiés, cryo-coupées en sections vitreuse et observées dans une cryo-microscope électronique. Cette technique, appelée la cryo- microscopie électronique des sections vitrifiées (CEMOVIS), est maintenant considérée comme étant la meilleure façon de conserver l'ultrastructure de tissus et cellules biologiques dans un état très proche de l'état natif. Récemment, cette technique est devenue une méthode pratique fournissant des résultats excellents. Elle a cependant, des limitations importantes, la plus importante d'entre elles est certainement dû aux artefacts de la coupe. Ces artefacts sont la conséquence de la nature du matériel vitreux et le fait que les sections vitreuses ne peuvent pas flotter sur un liquide comme c'est le cas pour les sections en plastique coupées à température ambiante. Le but de ce travail a été d'améliorer notre compréhension du processus de la coupe et des artefacts de la coupe. Nous avons ainsi trouvé des conditions optimales pour minimiser ou empêcher ces artefacts. Un modèle amélioré du processus de coupe et une redéfinitions des artefacts de coupe sont proposés. Les résultats obtenus sous ces conditions sont présentés et comparés aux résultats obtenus avec les méthodes conventionnelles. Abstract Water is often considered to be an ordinary substance since it is transparent, odourless, tasteless and it is very common in nature. As a matter of fact it can be argued that it is the most remarkable of all substances. Without water life on Earth would not exist. Water is the major component of cells, typically forming 70 to 95% of cellular mass and it provides an environment for innumerable organisms to live in, since it covers 75% of Earth surface. Water is a simple molecule made of two hydrogen atoms and one oxygen atom, H2O. The small size of the molecule stands in contrast with its unique physical and chemical properties. Among those the fact that, at the triple point, liquid water is denser than ice is especially remarkable. Despite its special importance in life science, water is systematically removed from biological specimens investigated by electron microscopy. This is because the high vacuum of the electron microscope requires that the biological specimen is observed in dry conditions. For 50 years the science of electron microscopy has addressed this problem resulting in numerous preparation techniques, presently in routine use. Typically these techniques consist in fixing the sample (chemically or by freezing), replacing its water by plastic which is transformed into rigid block by polymerisation. The block is then cut into thin sections (c. 50 nm) with an ultra-microtome at room temperature. Usually, these techniques introduce several artefacts, most of them due to water removal. In order to avoid these artefacts, the specimen can be frozen, cut and observed at low temperature. However, liquid water crystallizes into ice upon freezing, thus causing severe damage. Ideally, liquid water is solidified into a vitreous state. Vitrification consists in solidifying water so rapidly that ice crystals have no time to form. A breakthrough took place when vitrification of pure water was discovered. Since this discovery, the thin film vitrification method is used with success for the observation of biological suspensions of. small particles. Our work was to extend the method to bulk biological samples that have to be vitrified, cryosectioned into vitreous sections and observed in cryo-electron microscope. This technique is called cryo-electron microscopy of vitreous sections (CEMOVIS). It is now believed to be the best way to preserve the ultrastructure of biological tissues and cells very close to the native state for electron microscopic observation. Since recently, CEMOVIS has become a practical method achieving excellent results. It has, however, some sever limitations, the most important of them certainly being due to cutting artefacts. They are the consequence of the nature of vitreous material and the fact that vitreous sections cannot be floated on a liquid as is the case for plastic sections cut at room temperature. The aim of the present work has been to improve our understanding of the cutting process and of cutting artefacts, thus finding optimal conditions to minimise or prevent these artefacts. An improved model of the cutting process and redefinitions of cutting artefacts are proposed. Results obtained with CEMOVIS under these conditions are presented and compared with results obtained with conventional methods.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.