920 resultados para Semi-markov and markov renewal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The need for a convergence between semi-structured data management and Information Retrieval techniques is manifest to the scientific community. In order to fulfil this growing request, W3C has recently proposed XQuery Full Text, an IR-oriented extension of XQuery. However, the issue of query optimization requires the study of important properties like query equivalence and containment; to this aim, a formal representation of document and queries is needed. The goal of this thesis is to establish such formal background. We define a data model for XML documents and propose an algebra able to represent most of XQuery Full-Text expressions. We show how an XQuery Full-Text expression can be translated into an algebraic expression and how an algebraic expression can be optimized.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The existence of Multiple Myeloma Stem cells (MMSCs)is supposed to be one of the major causes of MM drug-resistance. However, very little is known about the molecular characteristics of MMSCs, even if some studies suggested that these cells resembles the memory B cells. In order to molecularly characterize MMSCs, we isolated the 138+138- population. For each cell fraction we performed a VDJ rearrangement analysis. The complete set of aberrations were performed by SNP Array 6.0 and HG-U133 Plus 2.0 microarray analyses (Affymetrix). The VDJ rearrangement analyses confirmed the clonal relationship between the 138+ clone and the immature clone. Both BM and PBL 138+ clones showed exactly the same genomic macroalterations. In the BM and PBL 138-19+27+ cell fractions several micro-alterations (range: 1-350 Kb) unique of the memory B cells clone were highlighted. Any micro-alterations detected were located out of any genomic variants region and are presumably associated to the MM pathogenesis, as confirmed by the presence of KRAS, WWOX and XIAP genes among the amplified regions. To get insight into the biology of the clonotypic B cell population, we compared the gene expression profile of 8 MM B cells samples 5 donor B cells vs, thus showing a differential expression of 11480 probes (p-value: <0,05). Among the self-renewal mechanisms, we observed the down-regulation of Hedgehog pathway and the iperactivation of Notch and Wnt signaling. Moreover, these immature cells showed a particular phenotype correlated to resistance to proteasome inhibitors (IRE1α-XBP1: -18.0; -19.96. P<0,05). Data suggested that the MM 138+ clone might resume the end of the complex process of myelomagenesis, whereas the memory B cells have some intriguing micro-alterations and a specific transcriptional program, supporting the idea that these post germinal center cells might be involved in the transforming event that originate and sustain the neoplastic clone.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Zielsetzung der Arbeit besteht darin, neue Ansätze zur Herstellung strukturierter Kompositpartikel in wässrigem Medium zu entwickeln, welche als die Bildung genau definierter heterogener Strukturen in Kolloidsystemen angesehen werden können. Im Allgemeinen wurden zwei verschiedene Herangehensweisen entwickelt, die sich aufgrund des Ursprungs der gebildeten heterogenen Strukturen unterscheiden: Heterogenität oder Homogenität. Der Erste Ansatz basiert auf der Aggregation heterogener Phasen zur Bildung strukturierter Kolloidpartikel mit Heterogenität in der zugrunde liegenden Chemie, während der Zweite Ansatz auf der Bildung heterogener Phasen in Kolloidpartikeln aus homogenen Mischungen heraus durch kontrollierte Phasenseparation beruht.rnIm Detail beschäftigt sich der erste Teil der Dissertation mit einer neuen Herstellungsmethode für teilkristalline Komposit-Kolloidpartikel mit hoher Stabilität basierend auf der Aggregation flüssiger Monomertropfen an teilkristalline Polyacrylnitrilpartikel. Nach der Aggregation wurden hochstabile Dispersionen bestehend aus strukturierten, teilkristallinen Kompositpartikeln durch freie radikalische Polymerisation erhalten, während ein direktes Mischen der PAN Dispersionen mit Methacrylat-Polymerdispersionen zur unmittelbaren Koagulation führte. In Abhängigkeit von der Glastemperatur des Methacrylatpolymers führt die anschließende freie radikalische Polymerisation zur Bildung von Rasberry oder Kern-Schale Partikeln. Die auf diese Weise hergestellten Partikel sind dazu in der Lage, kontinuierliche Filme mit eingebetteten teilkristallinen Phasen zu bilden, welche als Sauerstoffbarriere Anwendung finden können.rnDer zweite Teil der Dissertation beschreibt eine neue Methode zur Herstellung strukturierter Duroplast-Thermoplast Komposit-Kolloidpartikel. Die Bildung eines Duroplastnetzwerks mit einer thermoplastischen Hülle wurde in zwei Schritten durch verschiedene, separate Polymerisationsmechanismen erreicht: Polyaddition und freie radikalische Polymerisation. Es wurden stabile Miniemulsionen erhalten, welche aus Bisphenol-F basiertem Epoxidharz, Phenalkamin-basiertem Härter und Vinlymonomere bestehen. Sie wurden durch Ultraschall mit nachfolgender Härtung bei verschiedenen Temperaturen als sogenannte Seed-Emulsionen hergestellt. Weitere Vinylmonomere wurden hinzugegeben und nachfolgend polymerisiert, was zur Bildung von Kern-Schale, beziehungsweise Duroplast-Thermoplast Kolloidpartikeln führte. Dabei findet in beiden Fällen zwischen der duroplastischen und der thermoplastischen Phase eine chemisch induzierte Phasenseparation statt, welche essenziell für die Bildung heterogener Strukturen ist. Die auf diese Weise hergestellten Kompositpartikel sind dazu in der Lage, transparente Filme zu bilden, welche unter geeigneten Bedingungen deutlich verbesserte mechanische Eigenschaften im Vergleich zu reinen Duroplastfilmen bereitstellen.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Für das Vermögen der Atmosphäre sich selbst zu reinigen spielen Stickstoffmonoxid (NO) und Stickstoffdioxid (NO2) eine bedeutende Rolle. Diese Spurengase bestimmen die photochemische Produktion von Ozon (O3) und beeinflussen das Vorkommen von Hydroxyl- (OH) und Nitrat-Radikalen (NO3). Wenn tagsüber ausreichend Solarstrahlung und Ozon vorherrschen, stehen NO und NO2 in einem schnellen photochemischen Gleichgewicht, dem „Photostationären Gleichgewichtszustand“ (engl.: photostationary state). Die Summe von NO und NO2 wird deshalb als NOx zusammengefasst. Vorhergehende Studien zum photostationären Gleichgewichtszustand von NOx umfassen Messungen an unterschiedlichsten Orten, angefangen bei Städten (geprägt von starken Luftverschmutzungen), bis hin zu abgeschiedenen Regionen (geprägt von geringeren Luftverschmutzungen). Während der photochemische Kreislauf von NO und NO2 unter Bedingungen erhöhter NOx-Konzentrationen grundlegend verstanden ist, gibt es in ländlicheren und entlegenen Regionen, welche geprägt sind von niedrigeren NOx-Konzetrationen, signifikante Lücken im Verständnis der zugrundeliegenden Zyklierungsprozesse. Diese Lücken könnten durch messtechnische NO2-Interferenzen bedingt sein - insbesondere bei indirekten Nachweismethoden, welche von Artefakten beeinflusst sein können. Bei sehr niedrigen NOx-Konzentrationen und wenn messtechnische NO2-Interferenzen ausgeschlossen werden können, wird häufig geschlussfolgert, dass diese Verständnislücken mit der Existenz eines „unbekannten Oxidationsmittels“ (engl.: unknown oxidant) verknüpft ist. Im Rahmen dieser Arbeit wird der photostationäre Gleichgewichtszustand von NOx analysiert, mit dem Ziel die potenzielle Existenz bislang unbekannter Prozesse zu untersuchen. Ein Gasanalysator für die direkte Messung von atmosphärischem NO¬2 mittels laserinduzierter Fluoreszenzmesstechnik (engl. LIF – laser induced fluorescence), GANDALF, wurde neu entwickelt und während der Messkampagne PARADE 2011 erstmals für Feldmessungen eingesetzt. Die Messungen im Rahmen von PARADE wurden im Sommer 2011 in einem ländlich geprägten Gebiet in Deutschland durchgeführt. Umfangreiche NO2-Messungen unter Verwendung unterschiedlicher Messtechniken (DOAS, CLD und CRD) ermöglichten einen ausführlichen und erfolgreichen Vergleich von GANDALF mit den übrigen NO2-Messtechniken. Weitere relevante Spurengase und meteorologische Parameter wurden gemessen, um den photostationären Zustand von NOx, basierend auf den NO2-Messungen mit GANDALF in dieser Umgebung zu untersuchen. Während PARADE wurden moderate NOx Mischungsverhältnisse an der Messstelle beobachtet (10^2 - 10^4 pptv). Mischungsverhältnisse biogener flüchtige Kohlenwasserstoffverbindungen (BVOC, engl.: biogenic volatile organic compounds) aus dem umgebenden Wald (hauptsächlich Nadelwald) lagen in der Größenordnung 10^2 pptv vor. Die Charakteristiken des photostationären Gleichgewichtszustandes von NOx bei niedrigen NOx-Mischungsverhältnissen (10 - 10^3 pptv) wurde für eine weitere Messstelle in einem borealen Waldgebiet während der Messkampagne HUMPPA-COPEC 2010 untersucht. HUMPPA–COPEC–2010 wurde im Sommer 2010 in der SMEARII-Station in Hyytiälä, Süd-Finnland, durchgeführt. Die charakteristischen Eigenschaften des photostationären Gleichgewichtszustandes von NOx in den beiden Waldgebieten werden in dieser Arbeit verglichen. Des Weiteren ermöglicht der umfangreiche Datensatz - dieser beinhaltet Messungen von relevanten Spurengasen für die Radikalchemie (OH, HO2), sowie der totalen OH-Reaktivität – das aktuelle Verständnis bezüglich der NOx-Photochemie unter Verwendung von einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, zu überprüfen und zu verbessern. Während NOx-Konzentrationen in HUMPPA-COPEC 2010 niedriger sind, im Vergleich zu PARADE 2011 und BVOC-Konzentrationen höher, sind die Zyklierungsprozesse von NO und NO2 in beiden Fällen grundlegend verstanden. Die Analyse des photostationären Gleichgewichtszustandes von NOx für die beiden stark unterschiedlichen Messstandorte zeigt auf, dass potenziell unbekannte Prozesse in keinem der beiden Fälle vorhanden sind. Die aktuelle Darstellung der NOx-Chemie wurde für HUMPPA-COPEC 2010 unter Verwendung des chemischen Mechanismus MIM3* simuliert. Die Ergebnisse der Simulation sind konsistent mit den Berechnungen basierend auf dem photostationären Gleichgewichtszustand von NOx.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Genetic improvement of native crops is a new and promising strategy to combat hunger in the developing world. Tef is the major staple food crop for approximately 50 million people in Ethiopia. As an indigenous cereal, it is well adapted to diverse climatic and soil conditions; however, its productivity is extremely low mainly due to susceptibility to lodging. Tef has a tall and weak stem, liable to lodge (or fall over), which is aggravated by wind, rain, or application of nitrogen fertilizer. To circumvent this problem, the first semi-dwarf lodging-tolerant tef line, called kegne, was developed from an ethyl methanesulphonate (EMS)-mutagenized population. The response of kegne to microtubule-depolymerizing and -stabilizing drugs, as well as subsequent gene sequencing and segregation analysis, suggests that a defect in the α-Tubulin gene is functionally and genetically tightly linked to the kegne phenotype. In diploid species such as rice, homozygous mutations in α-Tubulin genes result in extreme dwarfism and weak stems. In the allotetraploid tef, only one homeologue is mutated, and the presence of the second intact α-Tubulin gene copy confers the agriculturally beneficial semi-dwarf and lodging-tolerant phenotype. Introgression of kegne into locally adapted and popular tef cultivars in Ethiopia will increase the lodging tolerance in the tef germplasm and, as a result, will improve the productivity of this valuable crop.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Description based on: June 28-29, 1882 and Jan. 24-25, 1883.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article focuses on the connections between built heritage-making and socioeconomic renewal in declining rural areas. Drawing on fieldwork in twelve rural villages in eastern Portugal, it sheds light on the outcomes of a State-led programme, the objectives of which were to renovate the historic built fabric and generate tourism revenue for a region with declining population levels. Overall, the programme was successful in terms of preservation / conservation of monuments and the built fabric, but failed to stimulate the anticipated social and economic development. The conclusion is that the making of heritage spaces is not the remedy for the economic and demographic ills of rural areas, notwithstanding the positive effect that such measures may have in certain cases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents a new semi-supervised method to effectively improve traffic classification performance when very few supervised training data are available. Existing semisupervised methods label a large proportion of testing flows as unknown flows due to limited supervised information, which severely affects the classification performance. To address this problem, we propose to incorporate flow correlation into both training and testing stages. At the training stage, we make use of flow correlation to extend the supervised data set by automatically labelling unlabelled flows according to their correlation to the pre-labelled flows. Consequently, a traffic classifier achieves excellent performance because of the enhanced training data set. At the testing stage, the correlated flows are identified and classified jointly by combining their individual predictions, so as to further boost the classification accuracy. The empirical study on the real-world network traffic shows that the proposed method significantly outperforms the state-of-the-art flow statistical feature based classification methods. Copyright © 2012 Inderscience Enterprises Ltd.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Common approaches to IP-traffic modelling have featured the use of stochastic models, based on the Markov property, which can be classified into black box and white box models based on the approach used for modelling traffic. White box models, are simple to understand, transparent and have a physical meaning attributed to each of the associated parameters. To exploit this key advantage, this thesis explores the use of simple classic continuous-time Markov models based on a white box approach, to model, not only the network traffic statistics but also the source behaviour with respect to the network and application. The thesis is divided into two parts: The first part focuses on the use of simple Markov and Semi-Markov traffic models, starting from the simplest two-state model moving upwards to n-state models with Poisson and non-Poisson statistics. The thesis then introduces the convenient to use, mathematically derived, Gaussian Markov models which are used to model the measured network IP traffic statistics. As one of the most significant contributions, the thesis establishes the significance of the second-order density statistics as it reveals that, in contrast to first-order density, they carry much more unique information on traffic sources and behaviour. The thesis then exploits the use of Gaussian Markov models to model these unique features and finally shows how the use of simple classic Markov models coupled with use of second-order density statistics provides an excellent tool for capturing maximum traffic detail, which in itself is the essence of good traffic modelling. The second part of the thesis, studies the ON-OFF characteristics of VoIP traffic with reference to accurate measurements of the ON and OFF periods, made from a large multi-lingual database of over 100 hours worth of VoIP call recordings. The impact of the language, prosodic structure and speech rate of the speaker on the statistics of the ON-OFF periods is analysed and relevant conclusions are presented. Finally, an ON-OFF VoIP source model with log-normal transitions is contributed as an ideal candidate to model VoIP traffic and the results of this model are compared with those of previously published work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estimating and predicting degradation processes of engineering assets is crucial for reducing the cost and insuring the productivity of enterprises. Assisted by modern condition monitoring (CM) technologies, most asset degradation processes can be revealed by various degradation indicators extracted from CM data. Maintenance strategies developed using these degradation indicators (i.e. condition-based maintenance) are more cost-effective, because unnecessary maintenance activities are avoided when an asset is still in a decent health state. A practical difficulty in condition-based maintenance (CBM) is that degradation indicators extracted from CM data can only partially reveal asset health states in most situations. Underestimating this uncertainty in relationships between degradation indicators and health states can cause excessive false alarms or failures without pre-alarms. The state space model provides an efficient approach to describe a degradation process using these indicators that can only partially reveal health states. However, existing state space models that describe asset degradation processes largely depend on assumptions such as, discrete time, discrete state, linearity, and Gaussianity. The discrete time assumption requires that failures and inspections only happen at fixed intervals. The discrete state assumption entails discretising continuous degradation indicators, which requires expert knowledge and often introduces additional errors. The linear and Gaussian assumptions are not consistent with nonlinear and irreversible degradation processes in most engineering assets. This research proposes a Gamma-based state space model that does not have discrete time, discrete state, linear and Gaussian assumptions to model partially observable degradation processes. Monte Carlo-based algorithms are developed to estimate model parameters and asset remaining useful lives. In addition, this research also develops a continuous state partially observable semi-Markov decision process (POSMDP) to model a degradation process that follows the Gamma-based state space model and is under various maintenance strategies. Optimal maintenance strategies are obtained by solving the POSMDP. Simulation studies through the MATLAB are performed; case studies using the data from an accelerated life test of a gearbox and a liquefied natural gas industry are also conducted. The results show that the proposed Monte Carlo-based EM algorithm can estimate model parameters accurately. The results also show that the proposed Gamma-based state space model have better fitness result than linear and Gaussian state space models when used to process monotonically increasing degradation data in the accelerated life test of a gear box. Furthermore, both simulation studies and case studies show that the prediction algorithm based on the Gamma-based state space model can identify the mean value and confidence interval of asset remaining useful lives accurately. In addition, the simulation study shows that the proposed maintenance strategy optimisation method based on the POSMDP is more flexible than that assumes a predetermined strategy structure and uses the renewal theory. Moreover, the simulation study also shows that the proposed maintenance optimisation method can obtain more cost-effective strategies than a recently published maintenance strategy optimisation method by optimising the next maintenance activity and the waiting time till the next maintenance activity simultaneously.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study optimal control of Markov processes with age-dependent transition rates. The control policy is chosen continuously over time based on the state of the process and its age. We study infinite horizon discounted cost and infinite horizon average cost problems. Our approach is via the construction of an equivalent semi-Markov decision process. We characterise the value function and optimal controls for both discounted and average cost cases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta tesis se entiende la intuición y las matemáticas del modelo generalizado de la teoría de la ruina, expuesto por Li y Lu quienes se remiten a los cálculos de la probabilidad de ruina de Reinhard. Teniendo en cuenta las definiciones, la media y la varianza del proceso telegráfico con saltos encontradas en la tesis doctoral de Óscar López. Luego se simula el proceso de riesgo y finalmente con un ejemplo se calcula la probabilidad de ruina numéricamente. Todo el proceso se va a realizar teniendo en cuenta reclamaciones con distribución exponencial.