794 resultados para Non Parametric Methodology


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A presente investigação pretende identificar os fatores que compõem a vantagem competitiva da cadeia de pronto-a-vestir Zara, contribuindo para a sua diferenciação do mercado. Pretende-se ainda perceber se esses fatores diferem de acordo com as caraterísticas sociodemográficas dos consumidores (idade, grau académico e rendimento), bem como se a frequência de realização de compras na loja influencia significativamente os fatores de diferenciação pela vantagem competitiva. Para tal, desenvolveu-se um estudo de caso, assente numa metodologia quantitativa, que contou com a aplicação de um questionário como método de recolha dos dados. O tratamento estatístico recorreu a técnicas descritivas e inferenciais como a análise fatorial e testes de comparação de médias. Os resultados demonstram haver quatro fatores que compõem a vantagem competitiva da Zara (atendimento, marca e produto, ambiente da loja e valor percebido), verificando-se uma influência maioritariamente do grau de escolaridade e da frequência de compras na loja.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Background: Indigenous Australians are at high risk for cardiovascular disease and type 2 diabetes. Carotid artery intimal medial thickness (CIMT) and brachial artery flow-mediated vasodilation (FMD) are ultrasound imaging based surrogate markers of cardiovascular risk. This study examines the relative contributions of traditional cardiovascular risk factors on CIMT and FMD in adult Indigenous Australians with and without type 2 diabetes mellitus. Method: One hundred and nineteen Indigenous Australians were recruited. Physical and biochemical markers of cardiovascular risk, together with CIMT and FMD were meausred for all subjects. Results: Fifty-three Indigenous Australians subjects (45%) had type 2 diabetes mellitus. There was a significantly greater mean CIMT in diabetic versus non-diabetic subjects (p = 0.049). In the non-diabetic group with non-parametric analyses, there were significant correlations between CIMT and: age (r = 0.64, p < 0.001), systolic blood pressure (r = 0.47, p < 0.001) and non-smokers (r = -0.30, p = 0.018). In the diabetic group, non-parametric analysis showed correlations between CIMT, age (r = 0.36, p = 0.009) and duration of diabetes (r = 0.30, p = 0.035) only. Adjusting forage, sex, smoking and history of cardiovascular disease, Hb(A1c) became the sole significant correlate of CIMT (r = 0.35,p = 0.01) in the diabetic group. In non-parametric analysis, age was the sole significant correlate of FMD (r = -0.31,p = 0.013), and only in non-diabetic subjects. Linear regression analysis showed significant associations between CIMT and age (t = 4.6,p < 0.001), systolic blood pressure (t = 2.6, p = 0.010) and Hb(A1c) (t = 2.6, p = 0.012), smoking (t = 2.1, p = 0.04) and fasting LDL-cholesterol (t = 2.1, p = 0.04). There were no significant associations between FMD and examined cardiovascular risk factors with linear regression analysis Conclusions: CIMT appears to be a useful surrogate marker of cardiovascular risk in this sample of Indigenous Australian subjects, correlating better than FMD with established cardiovascular risk factors. A lifestyle intervention programme may alleviate the burden of cardiovascular disease in Indigenous Australians by reducing central obesity, lowering blood pressure, correcting dyslipidaemia and improving glycaemic control. CIMT may prove to be a useful tool to assess efficacy of such an intervention programme. (c) 2004 Elsevier Ireland Ltd. All rights reserved.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

It has been postulated that immunogenicity results from the overall dissimilarity of pathogenic proteins versus the host proteome. We have sought to use this concept to discriminate between antigens and non-antigens of bacterial origin. Sets of 100 known antigenic and nonantigenic peptide sequences from bacteria were compared to human and mouse proteomes. Both antigenic and non-antigenic sequences lacked human or mouse homologues. Observed distributions were compared using the non-parametric Mann-Whitney test. The statistical null hypothesis was accepted, indicating that antigen and non-antigens did not differ significantly. Likewise, we were unable to determine a threshold able to separate meaningfully antigen from non-antigen. Thus, antigens cannot be predicted from pathogen genomes based solely on their dissimilarity to the human genome.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Immunogenicity arises via many synergistic mechanisms, yet the overall dissimilarity of pathogenic proteins versus the host proteome has been proposed as a key arbiter. We have previously explored this concept in relation to Bacterial antigens; here we extend our analysis to antigens of viral and fungal origin. Sets of known viral and fungal antigenic and non-antigenic protein sequences were compared to human and mouse proteomes. Both antigenic and non-antigenic sequences lacked human or mouse homologues. Observed distributions were compared using the non-parametric Mann-Whitney test. The statistical null hypothesis was accepted, indicating that antigen and non-antigens did not differ significantly. Likewise, we could not determine a threshold able meaningfully to separate non-antigen from antigen. We conclude that viral and fungal antigens cannot be predicted from pathogen genomes based solely on their dissimilarity to mammalian genomes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Establishing an association between the scent a perpetrator left at a crime scene to the odor of the suspect of that crime is the basis for the use of human scent identification evidence in a court of law. Law enforcement agencies gather evidence through the collection of scent from the objects that a perpetrator may have handled during the execution of the criminal act. The collected scent evidence is consequently presented to the canines for identification line-up procedures with the apprehended suspects. Presently, canine scent identification is admitted as expert witness testimony, however, the accurate behavior of the dogs and the scent collection methods used are often challenged by the court system. The primary focus of this research project entailed an evaluation of contact and non-contact scent collection techniques with an emphasis on the optimization of collection materials of different fiber chemistries to evaluate the chemical odor profiles obtained using varying environment conditions to provide a better scientific understanding of human scent as a discriminative tool in the identification of suspects. The collection of hand odor from female and male subjects through both contact and non-contact sampling approaches yielded new insights into the types of VOCs collected when different materials are utilized, which had never been instrumentally performed. Furthermore, the collected scent mass was shown to be obtained in the highest amounts for both gender hand odor samples on cotton sorbent materials. Compared to non-contact sampling, the contact sampling methods yielded a higher number of volatiles, an enhancement of up to 3 times, as well as a higher scent mass than non-contact methods by more than an order of magnitude. The evaluation of the STU-100 as a non-contact methodology highlighted strong instrumental drawbacks that need to be targeted for enhanced scientific validation of current field practices. These results demonstrated that an individual's human scent components vary considerably depending on the method used to collect scent from the same body region. This study demonstrated the importance of collection medium selection as well as the collection method employed in providing a reproducible human scent sample that can be used to differentiate individuals.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The objective of this research was to investigate monthly climatological, seasonal, annual and interdecadal of the reference evapotranspiration (ETo) in Acre state in order to better understand its spatial and temporal variability and identify possible trends in the region. The study was conducted with data from Rio Branco municipalities, the state capital, Tarauacá and Cruzeiro do Sul considering a 30-year period (1985-2014), from monthly data from weather stations surface of the National Institute of Meteorology. The methodology was held, first, the consistency of meteorological data. Thus, it was made the gap filling in the time series by means of multivariate techniques. Subsequently were performed statistical tests trend (Mann-Kendall) and homogeneity, by Sen's estimator of the magnitude of this trend is estimated, as well as computational algorithms containing parametric and non-parametric tests for two samples to identify from that year the trend has become significant. Finally, analysis of variance technique (ANOVA) was adopted in order to verify whether there were significant differences in average annual evapotranspiration between locations. The indirect method of Penman-Montheith parameterized by FAO was used to calculate the ETo. The results of this work through examination of the descriptive statistics showed that the ETo the annual average was 3.80, 2.92 and 2.86 mm day-1 year, to Rio Branco, Tarauacá and Cruzeiro do Sul, respectively. Featuring quite remarkable seasonal pattern with a minimum in June and a maximum in October, with Rio Branco to town one with the strongest signal (amplitudes) on the other hand, the Southern Cross presented the highest variability among the studied locations. By ANOVA it was found that the average annual statistically different for a significance level of 1% between locations, but the annual average between Cruzeiro do Sul and Tarauacá no statistically significant differences. For the three locations, the 2000s was the one with the highest ETo values associated with warmer waters of the North Atlantic basin and the 80s to lower values, associated with cooler waters of this basin. By analyzing the Mann-kendall and Sen estimator test, there was a trend of increasing the seasonal reference evapotranspiration (fall, winter and spring) on the order of 0.11 mm per decade and that from the years of 1990, 1996 and 2001 became statistically significant to the localities of Cruzeiro do Sul Tarauacá and Rio Branco, respectively. For trend analysis of meteorological parameters was observed positive trend in the 5% level of significance, for average temperature, minimum temperature and solar radiation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This thesis aims to investigate vibrational characteristics of magnetic resonance elastography (MRE) of the brain. MRE is a promising, non-invasive methodology for the mapping of shear stiffness of the brain. A mechanical actuator shakes the brain and generates shear waves, which are then imaged with a special MRI sequence sensitive to sub-millimeter displacements. This research focuses on exploring the profile of vibrations utilized in brain elastography from the standpoint of ultimately investigating nonlinear behavior of the tissue. The first objective seeks to demonstrate the effects of encoding off-frequency vibrations using standard MRE methodologies. Vibrations of this nature can arise from nonlinearities in the system and contaminate the results of the measurement. The second objective is to probe nonlinearity in the dynamic brain system using MRE. A non-parametric decomposition technique, novel to the MRE field, is introduced and investigated.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A capacidade de adaptação e rapidez de decisão, distinguem as empresas que melhor conseguem competir e crescer no mercado global. Para atuar rapidamente, as organizações precisam de sistemas de informação cada vez mais eficazes, surgindo recentemente uma nova função considerada fundamental para as empresas, que é a de Cientista de Dados. É neste contexto e para responder aos desafios atuais e futuros, que surgem sistemas de informação cada vez mais avançados, suportados por modelos de análise e visualização estatística. Este trabalho consiste em criar uma metodologia de desenvolvimento de modelos de previsão de incumprimento e perfil do consumidor, aplicado a cartões de crédito, com base numa exposição de análise comportamental, utilizando técnicas de análise de sobrevivência. São definidas técnicas de tratamento dos dados recolhidos, estimado modelo não-paramétrico de Kaplan-Meier e vários modelos de Cox de riscos proporcionais. Com recurso à curva ROC, dependente do tempo, à AUC e ao índice de Gini, conclui-se que o modelo final apresenta um desempenho positivo para identificar os clientes em situação de incumprimento ou com propensão a incumprir.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Em Portugal, assim como um pouco por todo o mundo, a maioria das empresas são de cariz familiar. A predominância destas empresas faz com que as mesmas tenham um papel relevante na economia, seja pela criação e distribuição de riqueza seja pela criação de emprego. A importância que se lhes reconhece constituiu o fator ou motivação suficiente para desenvolver este trabalho que, com base numa metodologia preferencialmente quantitativa, aplicada a um conjunto de empresas familiares associadas da Associação Portuguesa das Empresas Familiares, se propõe averiguar se estas empresas atribuem importância à informação financeira no processo da tomada de decisão. Utilizou-se como instrumento de recolha de informação um inquérito por questionário e cujos resultados permitiram desenvolver uma análise descritiva exploratória e aplicar testes estatísticos não paramétricos. O trabalho realizado permitiu recolher evidência suficiente para concluir sobre a importância das demonstrações financeiras para o processo de tomada de decisão, em particular no que respeita à utilização do balanço e da demonstração dos resultados. Não foi, porém, possível identificar um padrão sobre as demonstrações financeiras preparadas em função do tipo de norma contabilística aplicável e do setor de atividade, nem sobre a importância atribuída à informação financeira em função da dimensão da empresa. Foi possível concluir que a informação financeira é, fundamentalmente, utilizada para avaliar os impactos financeiros, apoiar na gestão corrente, tomar decisões de investimento e cumprir com obrigações fiscais, sendo muito evidente a importância que as empresas familiares atribuem à informação financeira como forma de dar cumprimento às obrigações fiscais.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A investigação na área da saúde e a utilização dos seus resultados tem funcionado como base para a melhoria da qualidade de cuidados, exigindo dos profissionais de saúde conhecimentos na área específica onde desempenham funções, conhecimentos em metodologia de investigação que incluam as técnicas de observação, técnicas de recolha e análise de dados, para mais facilmente serem leitores capacitados dos resultados da investigação. Os profissionais de saúde são observadores privilegiados das respostas humanas à saúde e à doença, podendo contribuir para o desenvolvimento e bem-estar dos indivíduos muitas vezes em situações de grande vulnerabilidade. Em saúde infantil e pediatria o enfoque está nos cuidados centrados na família privilegiando-se o desenvolvimento harmonioso da criança e jovem, valorizando os resultados mensuráveis em saúde que permitam determinar a eficácia das intervenções e a qualidade de saúde e de vida. No contexto pediátrico realçamos as práticas baseadas na evidência, a importância atribuída à pesquisa e à aplicação dos resultados da investigação nas práticas clínicas, assim como o desenvolvimento de instrumentos de mensuração padronizados, nomeadamente as escalas de avaliação, de ampla utilização clínica, que facilitam a apreciação e avaliação do desenvolvimento e da saúde das crianças e jovens e resultem em ganhos em saúde. A observação de forma sistematizada das populações neonatais e pediátricas com escalas de avaliação tem vindo a aumentar, o que tem permitido um maior equilíbrio na avaliação das crianças e também uma observação baseada na teoria e nos resultados da investigação. Alguns destes aspetos serviram de base ao desenvolvimento deste trabalho que pretende dar resposta a 3 objetivos fundamentais. Para dar resposta ao primeiro objetivo, “Identificar na literatura científica, os testes estatísticos mais frequentemente utilizados pelos investigadores da área da saúde infantil e pediatria quando usam escalas de avaliação” foi feita uma revisão sistemática da literatura, que tinha como objetivo analisar artigos científicos cujos instrumentos de recolha de dados fossem escalas de avaliação, na área da saúde da criança e jovem, desenvolvidas com variáveis ordinais, e identificar os testes estatísticos aplicados com estas variáveis. A análise exploratória dos artigos permitiu-nos verificar que os investigadores utilizam diferentes instrumentos com diferentes formatos de medida ordinal (com 3, 4, 5, 7, 10 pontos) e tanto aplicam testes paramétricos como não paramétricos, ou os dois em simultâneo, com este tipo de variáveis, seja qual for a dimensão da amostra. A descrição da metodologia nem sempre explicita se são cumpridas as assunções dos testes. Os artigos consultados nem sempre fazem referência à distribuição de frequência das variáveis (simetria/assimetria) nem à magnitude das correlações entre os itens. A leitura desta bibliografia serviu de suporte à elaboração de dois artigos, um de revisão sistemática da literatura e outro de reflexão teórica. Apesar de terem sido encontradas algumas respostas às dúvidas com que os investigadores e os profissionais, que trabalham com estes instrumentos, se deparam, verifica-se a necessidade de desenvolver estudos de simulação que confirmem algumas situações reais e alguma teoria já existente, e trabalhem outros aspetos nos quais se possam enquadrar os cenários reais de forma a facilitar a tomada de decisão dos investigadores e clínicos que utilizam escalas de avaliação. Para dar resposta ao segundo objetivo “Comparar a performance, em termos de potência e probabilidade de erro de tipo I, das 4 estatísticas da MANOVA paramétrica com 2 estatísticas da MANOVA não paramétrica quando se utilizam variáveis ordinais correlacionadas, geradas aleatoriamente”, desenvolvemos um estudo de simulação, através do Método de Monte Carlo, efetuado no Software R. O delineamento do estudo de simulação incluiu um vetor com 3 variáveis dependentes, uma variável independente (fator com três grupos), escalas de avaliação com um formato de medida com 3, 4, 5, e 7 pontos, diferentes probabilidades marginais (p1 para distribuição simétrica, p2 para distribuição assimétrica positiva, p3 para distribuição assimétrica negativa e p4 para distribuição uniforme) em cada um dos três grupos, correlações de baixa, média e elevada magnitude (r=0.10, r=0.40, r=0.70, respetivamente), e seis dimensões de amostras (n=30, 60, 90, 120, 240, 300). A análise dos resultados permitiu dizer que a maior raiz de Roy foi a estatística que apresentou estimativas de probabilidade de erro de tipo I e de potência de teste mais elevadas. A potência dos testes apresenta comportamentos diferentes, dependendo da distribuição de frequência da resposta aos itens, da magnitude das correlações entre itens, da dimensão da amostra e do formato de medida da escala. Tendo por base a distribuição de frequência, considerámos três situações distintas: a primeira (com probabilidades marginais p1,p1,p4 e p4,p4,p1) em que as estimativas da potência eram muito baixas, nos diferentes cenários; a segunda situação (com probabilidades marginais p2,p3,p4; p1,p2,p3 e p2,p2,p3) em que a magnitude das potências é elevada, nas amostras com dimensão superior ou igual a 60 observações e nas escalas com 3, 4,5 pontos e potências de magnitude menos elevada nas escalas com 7 pontos, mas com a mesma ma magnitude nas amostras com dimensão igual a 120 observações, seja qual for o cenário; a terceira situação (com probabilidades marginais p1,p1,p2; p1,p2,p4; p2,p2,p1; p4,p4,p2 e p2,p2,p4) em que quanto maiores, a intensidade das correlações entre itens e o número de pontos da escala, e menor a dimensão das amostras, menor a potência dos testes, sendo o lambda de Wilks aplicado às ordens mais potente do que todas as outra s estatísticas da MANOVA, com valores imediatamente a seguir à maior raiz de Roy. No entanto, a magnitude das potências dos testes paramétricos e não paramétricos assemelha-se nas amostras com dimensão superior a 90 observações (com correlações de baixa e média magnitude), entre as variáveis dependentes nas escalas com 3, 4 e 5 pontos; e superiores a 240 observações, para correlações de baixa intensidade, nas escalas com 7 pontos. No estudo de simulação e tendo por base a distribuição de frequência, concluímos que na primeira situação de simulação e para os diferentes cenários, as potências são de baixa magnitude devido ao facto de a MANOVA não detetar diferenças entre grupos pela sua similaridade. Na segunda situação de simulação e para os diferentes cenários, a magnitude das potências é elevada em todos os cenários cuja dimensão da amostra seja superior a 60 observações, pelo que é possível aplicar testes paramétricos. Na terceira situação de simulação, e para os diferentes cenários quanto menor a dimensão da amostra e mais elevada a intensidade das correlações e o número de pontos da escala, menor a potência dos testes, sendo a magnitude das potências mais elevadas no teste de Wilks aplicado às ordens, seguido do traço de Pillai aplicado às ordens. No entanto, a magnitude das potências dos testes paramétricos e não paramétricos assemelha-se nas amostras com maior dimensão e correlações de baixa e média magnitude. Para dar resposta ao terceiro objetivo “Enquadrar os resultados da aplicação da MANOVA paramétrica e da MANOVA não paramétrica a dados reais provenientes de escalas de avaliação com um formato de medida com 3, 4, 5 e 7 pontos, nos resultados do estudo de simulação estatística” utilizaram-se dados reais que emergiram da observação de recém-nascidos com a escala de avaliação das competências para a alimentação oral, Early Feeding Skills (EFS), o risco de lesões da pele, com a Neonatal Skin Risk Assessment Scale (NSRAS), e a avaliação da independência funcional em crianças e jovens com espinha bífida, com a Functional Independence Measure (FIM). Para fazer a análise destas escalas foram realizadas 4 aplicações práticas que se enquadrassem nos cenários do estudo de simulação. A idade, o peso, e o nível de lesão medular foram as variáveis independentes escolhidas para selecionar os grupos, sendo os recém-nascidos agrupados por “classes de idade gestacional” e por “classes de peso” as crianças e jovens com espinha bífida por “classes etárias” e “níveis de lesão medular”. Verificou-se um bom enquadramento dos resultados com dados reais no estudo de simulação.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta investigación analiza el impacto del Programa de Alimentación Escolar en el trabajo infantil en Colombia a través de varias técnicas de evaluación de impacto que incluyen emparejamiento simple, emparejamiento genético y emparejamiento con reducción de sesgo. En particular, se encuentra que este programa disminuye la probabilidad de que los escolares trabajen alrededor de un 4%. Además, se explora que el trabajo infantil se reduce gracias a que el programa aumenta la seguridad alimentaria, lo que consecuentemente cambia las decisiones de los hogares y anula la carga laboral en los infantes. Son numerosos los avances en primera infancia llevados a cabo por el Estado, sin embargo, estos resultados sirven de base para construir un marco conceptual en el que se deben rescatar y promover las políticas públicas alimentarias en toda la edad escolar.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Modern Engineering Asset Management (EAM) requires the accurate assessment of current and the prediction of future asset health condition. Suitable mathematical models that are capable of predicting Time-to-Failure (TTF) and the probability of failure in future time are essential. In traditional reliability models, the lifetime of assets is estimated using failure time data. However, in most real-life situations and industry applications, the lifetime of assets is influenced by different risk factors, which are called covariates. The fundamental notion in reliability theory is the failure time of a system and its covariates. These covariates change stochastically and may influence and/or indicate the failure time. Research shows that many statistical models have been developed to estimate the hazard of assets or individuals with covariates. An extensive amount of literature on hazard models with covariates (also termed covariate models), including theory and practical applications, has emerged. This paper is a state-of-the-art review of the existing literature on these covariate models in both the reliability and biomedical fields. One of the major purposes of this expository paper is to synthesise these models from both industrial reliability and biomedical fields and then contextually group them into non-parametric and semi-parametric models. Comments on their merits and limitations are also presented. Another main purpose of this paper is to comprehensively review and summarise the current research on the development of the covariate models so as to facilitate the application of more covariate modelling techniques into prognostics and asset health management.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Modern Engineering Asset Management (EAM) requires the accurate assessment of current and the prediction of future asset health condition. Appropriate mathematical models that are capable of estimating times to failures and the probability of failures in the future are essential in EAM. In most real-life situations, the lifetime of an engineering asset is influenced and/or indicated by different factors that are termed as covariates. Hazard prediction with covariates is an elemental notion in the reliability theory to estimate the tendency of an engineering asset failing instantaneously beyond the current time assumed that it has already survived up to the current time. A number of statistical covariate-based hazard models have been developed. However, none of them has explicitly incorporated both external and internal covariates into one model. This paper introduces a novel covariate-based hazard model to address this concern. This model is named as Explicit Hazard Model (EHM). Both the semi-parametric and non-parametric forms of this model are presented in the paper. The major purpose of this paper is to illustrate the theoretical development of EHM. Due to page limitation, a case study with the reliability field data is presented in the applications part of this study.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The ability to forecast machinery failure is vital to reducing maintenance costs, operation downtime and safety hazards. Recent advances in condition monitoring technologies have given rise to a number of prognostic models for forecasting machinery health based on condition data. Although these models have aided the advancement of the discipline, they have made only a limited contribution to developing an effective machinery health prognostic system. The literature review indicates that there is not yet a prognostic model that directly models and fully utilises suspended condition histories (which are very common in practice since organisations rarely allow their assets to run to failure); that effectively integrates population characteristics into prognostics for longer-range prediction in a probabilistic sense; which deduces the non-linear relationship between measured condition data and actual asset health; and which involves minimal assumptions and requirements. This work presents a novel approach to addressing the above-mentioned challenges. The proposed model consists of a feed-forward neural network, the training targets of which are asset survival probabilities estimated using a variation of the Kaplan-Meier estimator and a degradation-based failure probability density estimator. The adapted Kaplan-Meier estimator is able to model the actual survival status of individual failed units and estimate the survival probability of individual suspended units. The degradation-based failure probability density estimator, on the other hand, extracts population characteristics and computes conditional reliability from available condition histories instead of from reliability data. The estimated survival probability and the relevant condition histories are respectively presented as “training target” and “training input” to the neural network. The trained network is capable of estimating the future survival curve of a unit when a series of condition indices are inputted. Although the concept proposed may be applied to the prognosis of various machine components, rolling element bearings were chosen as the research object because rolling element bearing failure is one of the foremost causes of machinery breakdowns. Computer simulated and industry case study data were used to compare the prognostic performance of the proposed model and four control models, namely: two feed-forward neural networks with the same training function and structure as the proposed model, but neglected suspended histories; a time series prediction recurrent neural network; and a traditional Weibull distribution model. The results support the assertion that the proposed model performs better than the other four models and that it produces adaptive prediction outputs with useful representation of survival probabilities. This work presents a compelling concept for non-parametric data-driven prognosis, and for utilising available asset condition information more fully and accurately. It demonstrates that machinery health can indeed be forecasted. The proposed prognostic technique, together with ongoing advances in sensors and data-fusion techniques, and increasingly comprehensive databases of asset condition data, holds the promise for increased asset availability, maintenance cost effectiveness, operational safety and – ultimately – organisation competitiveness.