929 resultados para location-dependent data query
Resumo:
Forecasting the time, location, nature, and scale of volcanic eruptions is one of the most urgent aspects of modern applied volcanology. The reliability of probabilistic forecasting procedures is strongly related to the reliability of the input information provided, implying objective criteria for interpreting the historical and monitoring data. For this reason both, detailed analysis of past data and more basic research into the processes of volcanism, are fundamental tasks of a continuous information-gain process; in this way the precursor events of eruptions can be better interpreted in terms of their physical meanings with correlated uncertainties. This should lead to better predictions of the nature of eruptive events. In this work we have studied different problems associated with the long- and short-term eruption forecasting assessment. First, we discuss different approaches for the analysis of the eruptive history of a volcano, most of them generally applied for long-term eruption forecasting purposes; furthermore, we present a model based on the characteristics of a Brownian passage-time process to describe recurrent eruptive activity, and apply it for long-term, time-dependent, eruption forecasting (Chapter 1). Conversely, in an effort to define further monitoring parameters as input data for short-term eruption forecasting in probabilistic models (as for example, the Bayesian Event Tree for eruption forecasting -BET_EF-), we analyze some characteristics of typical seismic activity recorded in active volcanoes; in particular, we use some methodologies that may be applied to analyze long-period (LP) events (Chapter 2) and volcano-tectonic (VT) seismic swarms (Chapter 3); our analysis in general are oriented toward the tracking of phenomena that can provide information about magmatic processes. Finally, we discuss some possible ways to integrate the results presented in Chapters 1 (for long-term EF), 2 and 3 (for short-term EF) in the BET_EF model (Chapter 4).
Resumo:
The Ecosystem Approach to Fisheries represents the most recent research line in the international context, showing interest both towards the whole community and toward the identification and protection of all the “critical habitats” in which marine resources complete their life cycles. Using data coming from trawl surveys performed in the Northern and Central Adriatic from 1996 to 2010, this study provides the first attempt to appraise the status of the whole demersal community. It took into account not only fishery target species but also by-catch and discharge species by the use of a suite of biological indicators both at population and multi-specific level, allowing to have a global picture of the status of the demersal system. This study underlined the decline of extremely important species for the Adriatic fishery in recent years; adverse impact on catches is expected for these species in the coming years, since also minimum values of recruits recently were recorded. Both the excessive exploitation and environmental factors affected availability of resources. Moreover both distribution and nursery areas of the most important resources were pinpointed by means of geostatistical methods. The geospatial analysis also confirmed the presence of relevant recruitment areas in the North and Central Adriatic for several commercial species, as reported in the literature. The morphological and oceanographic features, the relevant rivers inflow together with the mosaic pattern of biocenoses with different food availability affected the location of the observed relevant nursery areas.
Resumo:
Palynologie und Sedimentologie der Interglazialprofile Döttingen, Bonstorf, Munster und Bilshausen Zusammenfassung In der vorliegenden Dissertation wurden vier dem Holstein-Interglazial zugehörige Bohrkerne sowie ein rhumezeitlicher Bohrkern palynologisch und sedimentologisch bearbeitet. Die holsteinzeitlichen Bohrkerne stammen aus Kieselgurlagerstätten der Lüneburger Heide (Bonstorf und Munster) und aus einem Trockenmaar (Döttingen) in der Eifel. Der rhumezeitliche Kern stammt aus der Typlokalität Bilshausen im Harzvorland. Neben Prozentwertdiagrammen werden Pollendichte- und wenn möglich Polleninfluxwerte vorgestellt, die insbesondere für die Lokalitäten Hetendorf/Bonstorf und Munster/Breloh bisher nicht verfügbar waren. Mit dem Profil Döttingen konnte erstmals eine sowohl vollständige als auch nicht innerhalb des klassischen Aufkommens holsteinzeitlicher Fundstellen im norddeutschen Tiefland positionierte Holsteinsequenz aus dem deutschen Mittelgebirge dokumentiert werden. Das erhaltene Pollendiagramm bestätigt die aus den norddeutschen Profilen bekannte holsteintypische Vegetationsabfolge, durch die das Holstein gegenüber anderen Interglazialen wie Holozän, Eem oder Rhume palynologisch definiert ist. Neben der grundsätzlichen Übereinstimmung der Pollensequenz unterscheidet sich das Profil Döttingen aber deutlich im prozentualen Aufkommen der beteiligten Taxa von den norddeutschen Profilen. So wird eine hohe Alnus-Präsenz als Merkmal deutscher Holsteinprofile bestätigt, jedoch ist die, in den norddeutschen Lokalitäten durchhaltend hohe oder dominante Beteiligung von Pinus im deutschen Mittelgebirge nicht vorhanden und muss daher auf die Standortbedingungen Norddeutschlands zurückgeführt werden. Abies dagegen ist im Holstein der Mittelgebirge wesentlich präsenter als im norddeutschen Flachland. Im Profil Döttingen wurden insgesamt 10 Tephralagen gefunden. Auf eine dieser Tephren folgt ein „Birken-Kiefern-Gräser Vorstoß“, der palynostratigraphisch dem älteren „Birken-Kiefern Vorstoß“ in Munster/Breloh entspricht. Als eine Typologie des Holstein kann das in den Profilen Döttingen und Munster bestätigte intraholsteinzeitliche Carpinus-Minimum verstanden werden. An Hand sedimentologischer und palynologischer Befunde aus dem Bohrkern MU 2 muss die Existenz zweier, in der Literatur postulierter, postholsteinzeitlicher, „Nachschwankungen“ in Munster/Breloh in Frage gestellt, wenn nicht abgelehnt werden. In Kern MU 2 fallen palynostratigraphische Grenzen häufig mit Sandeinschaltungen zusammen. Eine dieser Sandeinschaltungen, nämlich unmittelbar vor dem älteren „Birken-Kiefern-Vorstoß“, korreliert in ihrer stratigraphischen Position mit der den „Birken-Kiefern-Gräser-Vorstoß“ im Profil Döttingen einleitenden Tephralage. Es gelang die Dauer des intraholsteinzeitlichen Carpinus Minimums auf etwa 1500±100 Jahre zu bestimmen und eine interne Zweigliederung zu dokumentieren. Im rhumezeitlichen Kern von Bilshausen (BI 1) konnten zahlreiche Störungen nachgewiesen werden. Insbesondere im Teufenbereich des Bilshausener „Birken-Kiefern-Vorstoßes“ deuten diese auf eine möglicherweise verfälschte Überlieferung. Der palynologisch markante „Lindenfall“ von Bilshausen liegt im Bereich einer isoklinalen Schichtenverfaltung. Die in der Literatur im Horizont des „Lindenfalls“ beschriebene „Bilshausentephra“ wurde nicht gefunden. Warvenzählungen an den Kernen MU 1, MU 2 und BI 1 ermöglichten Pollenzonendauern in Holstein- und Rhume-Interglazial zu bestimmen. Dabei wurde mittels den Warvenzählungen, unter zu Hilfenahme von Literaturdaten und von Schätzwerten eine Dauer für das Holstein-Interglazial sensu stricto (Pollenzonen I-XIV) von 15400-17800 Jahren und für das Rhume-Interglazial von wahrscheinlich 22000 Jahren bis maximal 26000 Jahren ermittelt.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
Spinal cord injury (SCI) results not only in paralysis; but it is also associated with a range of autonomic dysregulation that can interfere with cardiovascular, bladder, bowel, temperature, and sexual function. The entity of the autonomic dysfunction is related to the level and severity of injury to descending autonomic (sympathetic) pathways. For many years there was limited awareness of these issues and the attention given to them by the scientific and medical community was scarce. Yet, even if a new system to document the impact of SCI on autonomic function has recently been proposed, the current standard of assessment of SCI (American Spinal Injury Association (ASIA) examination) evaluates motor and sensory pathways, but not severity of injury to autonomic pathways. Beside the severe impact on quality of life, autonomic dysfunction in persons with SCI is associated with increased risk of cardiovascular disease and mortality. Therefore, obtaining information regarding autonomic function in persons with SCI is pivotal and clinical examinations and laboratory evaluations to detect the presence of autonomic dysfunction and quantitate its severity are mandatory. Furthermore, previous studies demonstrated that there is an intimate relationship between the autonomic nervous system and sleep from anatomical, physiological, and neurochemical points of view. Although, even if previous epidemiological studies demonstrated that sleep problems are common in spinal cord injury (SCI), so far only limited polysomnographic (PSG) data are available. Finally, until now, circadian and state dependent autonomic regulation of blood pressure (BP), heart rate (HR) and body core temperature (BcT) were never assessed in SCI patients. Aim of the current study was to establish the association between the autonomic control of the cardiovascular function and thermoregulation, sleep parameters and increased cardiovascular risk in SCI patients.
Resumo:
The first aims of this study were to demonstrate if mitochondrial biogenesis and senescence can be induced simultaneously in cell lines upon exposure to a genotoxic stress, and if the presence of mtDNA mutations which impair the functionality of respiratory complexes can influence the ability of a cell to activate senescence. The data obtained on the oncocytic model XTC.UC1 demonstrated that the presence of mitochondrial dysfunction is involved in the maintenance of a senescent phenotype induced by γ-rays treatment. The involvement of mTORC1 in the regulation of senescence has been shown in this cell line. On the other hand, in cells which do not present mitochondrial dysfunction it has been verified that genotoxic stress determines the activation of both mitochondrial biogenesis and senescence. Further studies are necessary in order to verify if mitochondrial biogenesis sustains the activation of senescence. The second aim of this thesis was to determine the involvement of mTORC1 in the regulation of PGC-1α expression, in order to verify what is the cause of the development of oncocytoma in patients affected by two hereditary cancer syndromes; Cowden and Birt-hogg-Dubé . The study of oncocytic tumors developed by patients affected by these syndromes suggested that the double heterozigosity of the two causative genes, PTEN and FLCN respectively, induce the activation of mTORC1 and therefore the activation of PGC-1α expression. On XTC.UC1 cell line, the most suitable in vitro model, experiments of complementation of PTEN and FLCN were conducted. To date, these results demonstrated that mTORC1 is not involved in the regulation of PGC-1α expression, and PTEN and FLCN seem to have opposite effect on PGC-1α expression.
Resumo:
The human airway epithelium is a pseudostratified heterogenous layer comprised of cili-ated, secretory, intermediate and basal cells. As the stem/progenitor population of the airway epi-thelium, airway basal cells differentiate into ciliated and secretory cells to replenish the airway epithelium during physiological turnover and repair. Transcriptome analysis of airway basal cells revealed high expression of vascular endothelial growth factor A (VEGFA), a gene not typically associated with the function of this cell type. Using cultures of primary human airway basal cells, we demonstrate that basal cells express all of the 3 major isoforms of VEGFA (121, 165 and 189) but lack functional expression of the classical VEGFA receptors VEGFR1 and VEGFR2. The VEGFA is actively secreted by basal cells and while it appears to have no direct autocrine function on basal cell growth and proliferation, it functions in a paracrine manner to activate MAPK signaling cascades in endothelium via VEGFR2 dependent signaling pathways. Using a cytokine- and serum-free co-culture system of primary human airway basal cells and human endothelial cells revealed that basal cell secreted VEGFA activated endothelium to ex-press mediators that, in turn, stimulate and support basal cell proliferation and growth. These data demonstrate novel VEGFA mediated cross-talk between airway basal cells and endothe-lium, the purpose of which is to modulate endothelial activation and in turn stimulate and sustain basal cell growth.
Resumo:
In the era of the Internet of Everything, a user with a handheld or wearable device equipped with sensing capability has become a producer as well as a consumer of information and services. The more powerful these devices get, the more likely it is that they will generate and share content locally, leading to the presence of distributed information sources and the diminishing role of centralized servers. As of current practice, we rely on infrastructure acting as an intermediary, providing access to the data. However, infrastructure-based connectivity might not always be available or the best alternative. Moreover, it is often the case where the data and the processes acting upon them are of local scopus. Answers to a query about a nearby object, an information source, a process, an experience, an ability, etc. could be answered locally without reliance on infrastructure-based platforms. The data might have temporal validity limited to or bounded to a geographical area and/or the social context where the user is immersed in. In this envisioned scenario users could interact locally without the need for a central authority, hence, the claim of an infrastructure-less, provider-less platform. The data is owned by the users and consulted locally as opposed to the current approach of making them available globally and stay on forever. From a technical viewpoint, this network resembles a Delay/Disruption Tolerant Network where consumers and producers might be spatially and temporally decoupled exchanging information with each other in an adhoc fashion. To this end, we propose some novel data gathering and dissemination strategies for use in urban-wide environments which do not rely on strict infrastructure mediation. While preserving the general aspects of our study and without loss of generality, we focus our attention toward practical applicative scenarios which help us capture the characteristics of opportunistic communication networks.
Resumo:
Triple negative breast cancer (TNBC) is a very aggressive tumor subtype characterized by the lack of expression of estrogen receptor 1 (ESR1), due in the most of cases to an increased expression of DNA methyltransferases (DNMTs) and hypermethylation in CpG islands, resulting in gene silencing. Furthermore, in ESR1- negative breast cancers, androgen receptor (AR) is highly expressed and some studies suggest that it can drive tumor progression and might represent a therapeutic target. A correlation between microRNAs, small non-coding RNAs that regulate gene expression, and DNMTs was investigated in a TNBC cell line to restore a normal methylation pattern of ESR1, leading to its re-expression and conferring again sensitivity to selective estrogen receptor modulators (SERMs). miR-148A and miR-29B were found to be involved in the reduction of the expression of DNMT1 and DNMT3A and in a slight increase of ESR1 expression, but not at protein level. Then, we found a down-regulation of AR by miRs-7, -9, -27a, -27b, -29a, -29b, -29c, -127-3p, -127-5p and -376 at 48h post transfection and an up-regulation by miR-15a and miR-16 at every time considered. We concomitantly investigated a possible increase of Tamoxifen, Herceptin and Metformin sensitivity after AR silencing in MDA-MB 453 and T-47D cell lines. Cells seemed more sensitive when silenced for AR only in MDA-MB-453 at 24h post Tamoxifen treatment. Studies on Metformin have basically confirmed an increase of drug sensitivity due to AR silencing in both cell lines. Analysis of Herceptin showed how MDA-MB 453 samples silenced for AR have a slight decrease in the percentage of proliferating cells, demonstrating a possible increase in the response to treatment. These preliminary data provide the basis for further study of the modulation of the expression of AR by microRNAs and it will be interesting to understand the molecular mechanisms underlying these interactions.
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.
Resumo:
I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.
Resumo:
Fas/CD95 is a critical mediator of cell death in many chronic and acute liver diseases and induces apoptosis in primary hepatocytes in vitro. In contrast, the proinflammatory cytokine tumor necrosis factor α (TNFα) fails to provoke cell death in isolated hepatocytes but has been implicated in hepatocyte apoptosis during liver diseases associated with chronic inflammation. Here we report that TNFα sensitizes primary murine hepatocytes cultured on collagen to Fas ligand (FasL)-induced apoptosis. This synergism is time-dependent and is specifically mediated by TNFα. Fas itself is essential for the sensitization, but neither Fas up-regulation nor endogenous FasL is responsible for this effect. Although FasL is shown to induce Bid-independent apoptosis in hepatocytes cultured on collagen, the sensitizing effect of TNFα is clearly dependent on Bid. Moreover, both c-Jun N-terminal kinase activation and Bim, another B cell lymphoma 2 homology domain 3 (BH3)-only protein, are crucial mediators of TNFα-induced apoptosis sensitization. Bim and Bid activate the mitochondrial amplification loop and induce cytochrome c release, a hallmark of type II apoptosis. The mechanism of TNFα-induced sensitization is supported by a mathematical model that correctly reproduces the biological findings. Finally, our results are physiologically relevant because TNFα also induces sensitivity to agonistic anti-Fas-induced liver damage. CONCLUSION: Our data suggest that TNFα can cooperate with FasL to induce hepatocyte apoptosis by activating the BH3-only proteins Bim and Bid.
Resumo:
Recently we demonstrated that human mast cells (MC) express functional TRAIL death receptors. Here we assessed the expression of TRAIL on both mRNA and protein level in cord blood derived MC (CBMC) and HMC-1. The TRAIL release either spontaneous or induced by LPS, IFN-gamma and IgE-dependent activation, was evaluated as well. The protein location was restricted to the intracellular compartment in CBMC, but not in HMC-1. The intracellular TRAIL was not localized inside the granules. The treatment with IFN-gamma and LPS up-regulated intracellular TRAIL expression in CBMC, but did not induce its release. These in vitro data show that human MC can produce and express intracellular TRAIL whose location could not be altered by different stimuli.
Resumo:
This is the first part of a study investigating a model-based transient calibration process for diesel engines. The motivation is to populate hundreds of parameters (which can be calibrated) in a methodical and optimum manner by using model-based optimization in conjunction with the manual process so that, relative to the manual process used by itself, a significant improvement in transient emissions and fuel consumption and a sizable reduction in calibration time and test cell requirements is achieved. Empirical transient modelling and optimization has been addressed in the second part of this work, while the required data for model training and generalization are the focus of the current work. Transient and steady-state data from a turbocharged multicylinder diesel engine have been examined from a model training perspective. A single-cylinder engine with external air-handling has been used to expand the steady-state data to encompass transient parameter space. Based on comparative model performance and differences in the non-parametric space, primarily driven by a high engine difference between exhaust and intake manifold pressures (ΔP) during transients, it has been recommended that transient emission models should be trained with transient training data. It has been shown that electronic control module (ECM) estimates of transient charge flow and the exhaust gas recirculation (EGR) fraction cannot be accurate at the high engine ΔP frequently encountered during transient operation, and that such estimates do not account for cylinder-to-cylinder variation. The effects of high engine ΔP must therefore be incorporated empirically by using transient data generated from a spectrum of transient calibrations. Specific recommendations on how to choose such calibrations, how many data to acquire, and how to specify transient segments for data acquisition have been made. Methods to process transient data to account for transport delays and sensor lags have been developed. The processed data have then been visualized using statistical means to understand transient emission formation. Two modes of transient opacity formation have been observed and described. The first mode is driven by high engine ΔP and low fresh air flowrates, while the second mode is driven by high engine ΔP and high EGR flowrates. The EGR fraction is inaccurately estimated at both modes, while EGR distribution has been shown to be present but unaccounted for by the ECM. The two modes and associated phenomena are essential to understanding why transient emission models are calibration dependent and furthermore how to choose training data that will result in good model generalization.
Resumo:
Local to regional climate anomalies are to a large extent determined by the state of the atmospheric circulation. The knowledge of large-scale sea level pressure (SLP) variations in former times is therefore crucial when addressing past climate changes across Europe and the Mediterranean. However, currently available SLP reconstructions lack data from the ocean, particularly in the pre-1850 period. Here we present a new statistically-derived 5° × 5° resolved gridded seasonal SLP dataset covering the eastern North Atlantic, Europe and the Mediterranean area (40°W–50°E; 20°N–70°N) back to 1750 using terrestrial instrumental pressure series and marine wind information from ship logbooks. For the period 1750–1850, the new SLP reconstruction provides a more accurate representation of the strength of the winter westerlies as well as the location and variability of the Azores High than currently available multiproxy pressure field reconstructions. These findings strongly support the potential of ship logbooks as an important source to determine past circulation variations especially for the pre-1850 period. This new dataset can be further used for dynamical studies relating large-scale atmospheric circulation to temperature and precipitation variability over the Mediterranean and Eurasia, for the comparison with outputs from GCMs as well as for detection and attribution studies.