919 resultados para Naive Bayes classifier
Resumo:
There is a widespread recognition of the need for better information sharing and provision to improve the viability of end-of-life (EOL) product recovery operations. The emergence of automated data capture and sharing technologies such as RFID, sensors and networked databases has enhanced the ability to make product information; available to recoverers, which will help them make better decisions regarding the choice of recovery option for EOL products. However, these technologies come with a cost attached to it, and hence the question 'what is its value?' is critical. This paper presents a probabilistic approach to model product recovery decisions and extends the concept of Bayes' factor for quantifying the impact of product information on the effectiveness of these decisions. Further, we provide a quantitative examination of the factors that influence the value of product information, this value depends on three factors: (i) penalties for Type I and Type II errors of judgement regarding product quality; (ii) prevalent uncertainty regarding product quality and (iii) the strength of the information to support/contradict the belief. Furthermore, we show that information is not valuable under all circumstances and derive conditions for achieving a positive value of information. © 2010 Taylor & Francis.
Resumo:
The CTC algorithm, Consolidated Tree Construction algorithm, is a machine learning paradigm that was designed to solve a class imbalance problem, a fraud detection problem in the area of car insurance [1] where, besides, an explanation about the classification made was required. The algorithm is based on a decision tree construction algorithm, in this case the well-known C4.5, but it extracts knowledge from data using a set of samples instead of a single one as C4.5 does. In contrast to other methodologies based on several samples to build a classifier, such as bagging, the CTC builds a single tree and as a consequence, it obtains comprehensible classifiers. The main motivation of this implementation is to make public and available an implementation of the CTC algorithm. With this purpose we have implemented the algorithm within the well-known WEKA data mining environment http://www.cs.waikato.ac.nz/ml/weka/). WEKA is an open source project that contains a collection of machine learning algorithms written in Java for data mining tasks. J48 is the implementation of C4.5 algorithm within the WEKA package. We called J48Consolidated to the implementation of CTC algorithm based on the J48 Java class.
Resumo:
The main contribution of this work is to analyze and describe the state of the art performance as regards answer scoring systems from the SemEval- 2013 task, as well as to continue with the development of an answer scoring system (EHU-ALM) developed in the University of the Basque Country. On the overall this master thesis focuses on finding any possible configuration that lets improve the results in the SemEval dataset by using attribute engineering techniques in order to find optimal feature subsets, along with trying different hierarchical configurations in order to analyze its performance against the traditional one versus all approach. Altogether, throughout the work we propose two alternative strategies: on the one hand, to improve the EHU-ALM system without changing the architecture, and, on the other hand, to improve the system adapting it to an hierarchical con- figuration. To build such new models we describe and use distinct attribute engineering, data preprocessing, and machine learning techniques.
Resumo:
194 p.
Resumo:
Fundacion Zain is developing new built heritage assessment protocols. The goal is to objectivize and standardize the analysis and decision process that leads to determining the degree of protection of built heritage in the Basque Country. The ultimate step in this objectivization and standardization effort will be the development of an information and communication technology (ICT) tool for the assessment of built heritage. This paper presents the ground work carried out to make this tool possible: the automatic, image-based delineation of stone masonry. This is a necessary first step in the development of the tool, as the built heritage that will be assessed consists of stone masonry construction, and many of the features analyzed can be characterized according to the geometry and arrangement of the stones. Much of the assessment is carried out through visual inspection. Thus, this process will be automated by applying image processing on digital images of the elements under inspection. The principal contribution of this paper is the automatic delineation the framework proposed. The other contribution is the performance evaluation of this delineation as the input to a classifier for a geometrically characterized feature of a built heritage object. The element chosen to perform this evaluation is the stone arrangement of masonry walls. The validity of the proposed framework is assessed on real images of masonry walls.
Resumo:
A proporção de idosos portadores da síndrome da imunodeficiência adquirida (aids) tem aumentado de maneira importante nos últimos anos e, até a presente data, existem poucos estudos que abordam a infecção nessa população especial. As particularidades imunológicas decorrentes do fenômeno da imunossenescência podem acarretar mudanças significativas na evolução da infecção pelo HIV, bem como na resposta ao tratamento. O objetivo maior desta Tese foi avaliar o impacto da idade na recuperação funcional do sistema imune de pacientes com aids acima de 55 anos, quando tratados adequadamente com terapia anti-retroviral, caracterizando a resultante imunológica da idade avançada e da infecção pelo HIV. Para tanto, foram estudados quatro grupos experimentais: indivíduos jovens saudáveis ou com aids, e indivíduos acima de 55 anos saudáveis ou com aids. Todos os pacientes com aids estavam recebendo terapia anti-retroviral, em sucesso terapêutico. No primeiro artigo apresentado, avaliamos resposta linfoproliferativa e produção de citocinas in vitro e resposta humoral in vivo mediante desafio antigênico com toxóide tetânico (TT) em indivíduos previamente vacinados contra o tétano. Os resultados mostraram deficiências imunológicas significativas relacionadas à idade avançada no que diz respeito a produção de IgG anti-TT, resposta linfoproliferativa e produção de IFN-. Em contrapartida, a produção de IL-10 foi significativamente maior nos indivíduos acima de 55 anos, infectados ou não pelo HIV. No segundo artigo, foram caracterizadas as subpopulações de células T mediante estímulo policlonal ou específico com antígenos do envelope do HIV (Env). Em culturas não-estimuladas de PBMC do grupo com aids e idade avançada, observamos frequência reduzida de células T naive e de memória central, associada a aumento de células T efetoras. Quando estimuladas policlonalmente, essas culturas apresentaram deficiência na produção de IFN- e hiperprodução de IL-10, como na resposta ao TT. Mediante estímulo específico com Env, a citometria de fluxo revelou frequência elevada de células T CD4+FoxP3-CD152+ com forte marcação intracelular para IL-10, indicando predomínio do fenótipo Tr-1, e não das células Treg clássicas. Interessantemente, em ambos os artigos, a replicação viral in vitro foi significativamente menor nos pacientes com aids acima de 55 anos, condizendo com a excelente resposta virológica desses pacientes ao tratamento antirretroviral. A neutralização da IL-10 com anticorpo anti-IL-10 nas culturas ativadas pelos peptídeos Env aumentou de forma significativa a replicação viral no sobrenadante. Tanto na resposta ao TT quanto aos peptídeos Env, o bloqueio da IL-10 aumentou os níveis de citocinas pró-inflamatórias, mas não melhorou a produção de IFN- dos pacientes acima de 55 anos com aids. Coletivamente, os achados dessa Tese revelam distúrbios em vários segmentos da resposta imune, particularmente no compartimento Th1, de pacientes acima 55 anos com aids e adequadamente tratados, sugerindo que, para esses pacientes, a reconstituição imune pós-tratamento não ocorre com a mesma eficácia que no jovem. Apesar do aumento da produção de IL-10 provavelmente contribuir, ao menos em parte, para o controle virológico, pode comprometer a resposta tanto ao próprio HIV, quanto a outros desafios antigênicos, a exemplo do toxóide tetânico. Sugere-se, portanto, a necessidade de recomendações específicas de manejo clínico para esse grupo de pacientes
Resumo:
nterruptions in cardiopulmonary resuscitation (CPR) compromise defibrillation success. However, CPR must be interrupted to analyze the rhythm because although current methods for rhythm analysis during CPR have high sensitivity for shockable rhythms, the specificity for nonshockable rhythms is still too low. This paper introduces a new approach to rhythm analysis during CPR that combines two strategies: a state-of-the-art CPR artifact suppression filter and a shock advice algorithm (SAA) designed to optimally classify the filtered signal. Emphasis is on designing an algorithm with high specificity. The SAA includes a detector for low electrical activity rhythms to increase the specificity, and a shock/no-shock decision algorithm based on a support vector machine classifier using slope and frequency features. For this study, 1185 shockable and 6482 nonshockable 9-s segments corrupted by CPR artifacts were obtained from 247 patients suffering out-of-hospital cardiac arrest. The segments were split into a training and a test set. For the test set, the sensitivity and specificity for rhythm analysis during CPR were 91.0% and 96.6%, respectively. This new approach shows an important increase in specificity without compromising the sensitivity when compared to previous studies.
Resumo:
In the problem of one-class classification (OCC) one of the classes, the target class, has to be distinguished from all other possible objects, considered as nontargets. In many biomedical problems this situation arises, for example, in diagnosis, image based tumor recognition or analysis of electrocardiogram data. In this paper an approach to OCC based on a typicality test is experimentally compared with reference state-of-the-art OCC techniques-Gaussian, mixture of Gaussians, naive Parzen, Parzen, and support vector data description-using biomedical data sets. We evaluate the ability of the procedures using twelve experimental data sets with not necessarily continuous data. As there are few benchmark data sets for one-class classification, all data sets considered in the evaluation have multiple classes. Each class in turn is considered as the target class and the units in the other classes are considered as new units to be classified. The results of the comparison show the good performance of the typicality approach, which is available for high dimensional data; it is worth mentioning that it can be used for any kind of data (continuous, discrete, or nominal), whereas state-of-the-art approaches application is not straightforward when nominal variables are present.
Resumo:
In this work we show the results obtained applying a Unified Dark Matter (UDM) model with a fast transition to a set of cosmological data. Two different functions to model the transition are tested, and the feasibility of both models is explored using CMB shift data from Planck [1], Galaxy Clustering data from [2] and [3], and Union2.1 SNe Ia [4]. These new models are also statistically compared with the ACDM and quiessence models using Bayes factor through evidence. Bayesian inference does not discard the UDM models in favor of ACDM.
Resumo:
Esta dissertação apresenta um sistema de indução de classificadores fuzzy. Ao invés de utilizar a abordagem tradicional de sistemas fuzzy baseados em regras, foi utilizado o modelo de Árvore de Padrões Fuzzy(APF), que é um modelo hierárquico, com uma estrutura baseada em árvores que possuem como nós internos operadores lógicos fuzzy e as folhas são compostas pela associação de termos fuzzy com os atributos de entrada. O classificador foi obtido sintetizando uma árvore para cada classe, esta árvore será uma descrição lógica da classe o que permite analisar e interpretar como é feita a classificação. O método de aprendizado originalmente concebido para a APF foi substituído pela Programação Genética Cartesiana com o intuito de explorar melhor o espaço de busca. O classificador APF foi comparado com as Máquinas de Vetores de Suporte, K-Vizinhos mais próximos, florestas aleatórias e outros métodos Fuzzy-Genéticos em diversas bases de dados do UCI Machine Learning Repository e observou-se que o classificador APF apresenta resultados competitivos. Ele também foi comparado com o método de aprendizado original e obteve resultados comparáveis com árvores mais compactas e com um menor número de avaliações.
Resumo:
O objetivo desta dissertação foi criar uma nova abordagem para identificar de maneira automática feições do tipo edificação em uma imagem digital. Tal identificação seria de interesse de órgãos públicos que lidam com planejamento urbano para fins de controle da ocupação humana irregular. A abordagem criada utilizou agentes de software especialistas para proceder com o processamento da segmentação e reconhecimento de feições na imagem digital. Os agentes foram programados para tratar uma imagem colorida com o padrão Red, Green e Blue (RGB). A criação desta nova abordagem teve como motivação o fato das atuais técnicas existentes de segmentação e classificação de imagens dependerem sobremaneira dos seus usuários. Em outras palavras, pretendeu-se com a abordagem em questão permitir que usuários menos técnicos pudessem interagir com um sistema classificador, sem a necessidade de profundos conhecimentos de processamento digital de imagem. Uma ferramenta protótipo foi desenvolvida para testar essa abordagem, que emprega de forma inusitada, agentes inteligentes, com testes feitos em recortes de ortofotos digitais do Município de Angra dos Reis (RJ).
Resumo:
A síndrome de imunodeficiência adquirida (AIDS) é um problema de saúde pública que alcançou grandes proporções. Na ausência de uma vacina eficaz ou tratamento efetivo para a doença, esforços têm ser concentrados na prevenção. As políticas de saúde adotadas pelo governo brasileiro têm resultado em estabilização da enfermidade no país na faixa etária mais jovem, muito embora essa tendência não venha acontecendo nos outros grupos etários mais velhos. Verificar a incidência da AIDS em indivíduos idosos, no município de Niterói, RJ, de acordo com sexo, idade, período e coorte de nascimento de 1982-2011, além de analisar a dinâmica espacial da epidemia de AIDS em idosos (indivíduos com 60 anos ou mais) no estado do Rio de Janeiro no período de 1997-2011, são os objetivos deste estudo. Os dados da população por idade, sexo e grupo, foram obtidos a partir de: censos populacionais, contagem da população (1996), projeções intercensitárias, informações do Sistema de Informações de Agravos de Notificação, de Mortalidade e de Controle de Exames Laboratoriais. As taxas de incidência por 100 000 foram calculadas para as unidades geográficas através da contagem do número de novos casos de AIDS em indivíduos com 60 anos ou mais e tamanho da população do município no mesmo grupo etário. Para avaliar a dependência espacial das taxas foi calculado o índice de Moran global. Moran Mapas foram construídos para mostrar regimes de correlação espacial potencialmente distintos em diferentes subregiões. Distribuições de probabilidade e método Bayes empírico foram aplicados para a correção das taxas de incidência da AIDS. Ocorreram 575 casos de AIDS em residentes de Niterói com ≥50 anos de idade. Tendência crescente de taxas de incidência ao longo do tempo foi detectada em ambos os sexos. No estudo da dinâmica espacial da incidência da AIDS em idosos, Rio de Janeiro, no período de 1997 a 2011, as taxas entre homens e mulheres permaneceram flutuantes ao longo de todo o período. Não foi possível detectar correlação significativa global, usando o índice global de Moran. Na costa sudeste do Estado, onde se localizam as grandes áreas metropolitanas (Rio de Janeiro e Niterói), observaram-se grupos de cidades com taxas de até 20 casos por 100 000 hab. Esta concentração se torna mais pronunciada em períodos subsequentes, quando parece ocorrer propagação gradual da epidemia da costa sul até o norte do Rio de Janeiro.
Resumo:
Atualmente, o assunto de segurança em fundações tem despertado a atenção de diversos pesquisadores. Muitos entendem ser ultrapassada a utilização, pura e simples, de fatores de segurança em obras geotécnicas. O tratamento determinístico nos projetos de fundações não corresponde às variações e incertezas geradas em todo o processo de investigação do subsolo e processo executivo da fundação, sendo ainda o projeto de fundações um fim de linha de uma longa fila de disciplinas que a precedem e que geram também incertezas nas informações de esforços de suas estruturas e solicitações nas fundações. Porém, são as fundações as primeiras a serem executadas em qualquer obra civil. Este aspecto tem levado à necessidade crescente de verificar também a probabilidade de ruína da fundação por meio da chamada análise de confiabilidade. Com o objetivo de contribuir com a discussão sobre o emprego da análise de confiabilidade, as orientações da norma e o aprimoramento de modelos de cálculo, esta dissertação apresenta, através da aplicação em um estudo de caso, os diferentes aspectos de segurança abordados em projetos de fundações. Procura-se destacar dois tipos básicos de incertezas: aquelas inerentes à variabilidade espacial das propriedades do solo e as decorrentes do modelo de cálculo. Nesta pesquisa são procedidas inicialmente as extrapolações das curvas das provas de carga, que resultarão nos valores da função de Verossimilhança, para a atualização por Bayes. Numa segunda etapa se procede à estimativa da capacidade de carga a priori por alguns métodos consagrados e amplamente utilizados no Brasil. A atualização da estimativa da capacidade de carga é, a seguir, realizada através da metodologia de Bayes, sendo esta uma aplicação de conceitos da probabilidade condicional. A ideia de se proceder a estas duas alternativas de análise à priori foi norteada por duas motivações distintas: i) contribuir para a prática, pelo procedimento de combinação de informações num caso real bem documentado, conforme proposto por Vrouwenvelder (1992) e ii) motivar discussão de opiniões polêmicas de engenheiros de fundações brasileiros em relação à adoção de um fator de segurança inferior a 2 no caso de provas de carga especificadas na fase de projeto.
Resumo:
As the use of found data increases, more systems are being built using adaptive training. Here transforms are used to represent unwanted acoustic variability, e.g. speaker and acoustic environment changes, allowing a canonical model that models only the "pure" variability of speech to be trained. Adaptive training may be described within a Bayesian framework. By using complexity control approaches to ensure robust parameter estimates, the standard point estimate adaptive training can be justified within this Bayesian framework. However during recognition there is usually no control over the amount of data available. It is therefore preferable to be able to use a full Bayesian approach to applying transforms during recognition rather than the standard point estimates. This paper discusses various approximations to Bayesian approaches including a new variational Bayes approximation. The application of these approaches to state-of-the-art adaptively trained systems using both CAT and MLLR transforms is then described and evaluated on a large vocabulary speech recognition task. © 2005 IEEE.
Resumo:
The application of Bayes' Theorem to signal processing provides a consistent framework for proceeding from prior knowledge to a posterior inference conditioned on both the prior knowledge and the observed signal data. The first part of the lecture will illustrate how the Bayesian methodology can be applied to a variety of signal processing problems. The second part of the lecture will introduce the concept of Markov Chain Monte-Carlo (MCMC) methods which is an effective approach to overcoming many of the analytical and computational problems inherent in statistical inference. Such techniques are at the centre of the rapidly developing area of Bayesian signal processing which, with the continual increase in available computational power, is likely to provide the underlying framework for most signal processing applications.