591 resultados para Inferência Bayesiana


Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Avaliar os efeitos da clonidina sobre a freqüência cardíaca (FC), pressão arterial (PA) e sedação de pacientes submetidos à cineangiocoronariografia. MÉTODOS: Um ensaio clínico prospectivo, duplo cego, randomizado, controlado, foi realizado com 62 pacientes submetidos a cineangiocoronariografias eletivas, divididos em dois grupos: grupo clonidina que utilizou 0,8 µg/kg desta droga, e o grupo controle que utilizou solução fisiológica a 0,9%. A sedação foi avaliada com base na escala de Ramsay e o consumo de meperidina 0,04 mg/kg que foi utilizada nos pacientes que apresentaram agitação ou ansiedade durante o procedimento. A PA invasiva, a FC e o escore de sedação, de acordo com a escala de Ramsay, foram analisados a cada 5 minutos e quatro diferentes momentos foram considerados para avaliação: M1- inicio do exame; M2- 5 minutos após o início do exame; M3- mediana do tempo do exame e M4 - final do exame. RESULTADOS: O grupo clonidina apresentou maior estabilidade da PA e FC e eficácia na sedação, enquanto o grupo controle apresentou um maior consumo de meperidina (p<0,05). Na análise estatística, para inferência das variáveis contínuas foi utilizado o teste T ou Mann-Whitney e chi2 ou Teste Exato de Fisher para as variáveis categóricas. CONCLUSÃO: Este trabalho mostrou que, nos pacientes submetidos à cineangiocoronariografia, a utilização da clonidina foi eficaz tanto no controle da PA e FC quanto em proporcionar uma sedação consciente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundamento: O custo-efetividade é um fator de crescente importância na escolha de um exame ou terapêutica. Objetivo: Avaliar o custo-efetividade de vários métodos habitualmente empregados no diagnóstico de doença coronária estável em Portugal. Métodos: Foram avaliadas sete estratégias diagnósticas. O custo-efetividade de cada estratégia foi definido como o custo por cada diagnóstico correto (inclusão ou exclusão de doença arterial coronária obstrutiva) num doente sintomático. Os custos e a eficácia de cada método foram avaliados por meio de inferência bayesiana e análise de árvores de decisão, fazendo variar a probabilidade pré-teste entre 10 e 90%. Resultados: O custo-efetividade das várias estratégias diagnósticas é fortemente dependente da probabilidade pré-teste. Em doentes com probabilidade pré-teste ≤ 50%, os algoritmos diagnósticos, que incluem a angiotomografia computadorizada cardíaca são os mais custo-efetivos. Nesses doentes, dependendo da probabilidade pré-teste e da disponibilidade para pagar por diagnóstico correto adicional, a angiotomografia computadorizada pode ser usada como teste de primeira linha ou ser reservada a doentes com teste ergométrico positivo/inconclusivo ou escore de cálcio > 0. Em doentes com probabilidade pré-teste ≥ 60%, o envio direto para angiografia coronária invasiva parece ser a estratégia mais custo-efetiva. Conclusão: Os algoritmos diagnósticos, que incluem a angiotomografia computadorizada cardíaca, são os mais custo-efetivos em doentes sintomáticos com suspeita de doença arterial coronária estável e probabilidade pré-teste ≤ 50%. Em doentes de risco mais elevado (probabilidade pré-teste ≥ 60%), o envio direto para coronariografia invasiva parece ser a estratégia mais custo-efetiva. Em todas as probabilidades pré-teste, as estratégias baseadas em testes de isquemia parecem ser mais onerosas e menos eficazes que aquelas baseadas em testes anatômicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No Estado do Paraná, as áreas mais devastadas são aquelas com potencial agrícola e as ações de inferência no meio raramente são precedidas do estudo faunístico que permitam avaliar a diversidade e abundância dos animais das áreas atingidas. Este trabalho objetivou catalogar a escarabeoideofauna atraída por armadilha de luz na área rural do município de Tamarana, Paraná e contribuir com o conhecimento ecológico de espécies deste grupo. As coletas foram realizadas em duas propriedades, utilizando armadilha de luz modelo Luiz de Queiroz modificada. Estas tiveram periodicidade quinzenal de março de 2002 a abril de 2001. Foram capturados 2.447 espécimens, distribuídos em 10 famílias, 24 gêneros e 67 espécies. As três espécies mais abundantes também foram as mais freqüentes: Aphodius lividus (Olivier, 1789), Melolonthidae sp. 1 e Ataenius sp. 5. A maior abundância de A. lividus ocorreu no outono, durante o mês de abril, enquanto que Melolonthidae sp. 1 e Ataeucus sp. 5 foram mais abundantes em outubro e novembro. A maioria das espécies foram representadas por poucos indivíduos (H'=1,74) e as espécies apareceram de maneira uniforme (J'=0,95; S=0,20). Ocorreu um maior número de famílias que estavam representadas por poucos indivíduos. Houve predominância das famílias que apresentam hábitos alimentares detritívoros - Aphodiidae, Scarabaeidae, Hybosoridae e fitófagos - Melolonthidae, Dynastidae e Rutelidae. Para os grupos de hábito detritívoro, foram coletados 25 espécies, num total de 1.422 espécimes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present experimental and theoretical analyses of data requirements for haplotype inference algorithms. Our experiments include a broad range of problem sizes under two standard models of tree distribution and were designed to yield statistically robust results despite the size of the sample space. Our results validate Gusfield's conjecture that a population size of n log n is required to give (with high probability) sufficient information to deduce the n haplotypes and their complete evolutionary history. The experimental results inspired our experimental finding with theoretical bounds on the population size. We also analyze the population size required to deduce some fixed fraction of the evolutionary history of a set of n haplotypes and establish linear bounds on the required sample size. These linear bounds are also shown theoretically.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um estudo da morbidade através de exames clínicos, eletrocardiográficos, radiológicos, sorológicos, xenodiagnósticos e outros exames laboratoriais seriados, foi feito em 510 pacientes com sorologia positiva para doença de Chagas, procedentes de vários Estados do Brasil e observados no Rio de Janeiro a partir de 1960. Os pacientes foram classificados, de acordo com a forma clínica, em assintomáticos (forma indeterminada), cardíacos, portadores de "megas" ou com formas clínicas associadas. Foi observada uma prevalência de cardiopatia em 52,1% dos pacientes, de "megas" em 14,3% e de associação entre cardiopatia e "megas" em 10,7% e entre megaesôfago e megacolon em 10,9% dos casos. A forma indeterminada (assintomática) foi observada em 39% dos pacientes. A proporção de casos de cardiopatia aumentou progressivamente da 1ª a 5ª décadas de vida, enquanto a dos "megas" continuou aumentando até a 7ª década. Entretanto, em número de casos o pico de ambas as formas ocorreu na 4ª década. Não houve diferenças significativas de formas clínicas com relação ao sexo, apesar de uma discreta predominância de cardiopatia no sexo masculino e de "megas" no sexo feminino. Com relação à raça, entre os pacientes classificados como brancos, pretos e mestiços, não foi possível determinar a significância entre as diversas formas clínicas, por desconhecimento da constituição do universo da procedência de cada paciente. Embora o reduzido número de casos não possa ser considerado como representativo da prevalência das fomas clínicas nas regiões de origem dos pacientes, tomando-se os quatro Estados representados com maior número de casos, verificou-se que as proporções de cardiopatia e "megas" foram respectivamente de 65,7 e 20,1% nos casos procedentes da Bahia, de 55,7 e 14,7% nos de Minas Gerais, de 50,9 e 15% nos de Pernambuco e de 23,3 e 0% nos procedentes da Paraíba. O reduzido número de casos procedentes dos demais Estados não permitiu qualquer inferência de proporção entre as formas...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

There is recent interest in the generalization of classical factor models in which the idiosyncratic factors are assumed to be orthogonal and there are identification restrictions on cross-sectional and time dimensions. In this study, we describe and implement a Bayesian approach to generalized factor models. A flexible framework is developed to determine the variations attributed to common and idiosyncratic factors. We also propose a unique methodology to select the (generalized) factor model that best fits a given set of data. Applying the proposed methodology to the simulated data and the foreign exchange rate data, we provide a comparative analysis between the classical and generalized factor models. We find that when there is a shift from classical to generalized, there are significant changes in the estimates of the structures of the covariance and correlation matrices while there are less dramatic changes in the estimates of the factor loadings and the variation attributed to common factors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper aims at providing a Bayesian parametric framework to tackle the accessibility problem across space in urban theory. Adopting continuous variables in a probabilistic setting we are able to associate with the distribution density to the Kendall's tau index and replicate the general issues related to the role of proximity in a more general context. In addition, by referring to the Beta and Gamma distribution, we are able to introduce a differentiation feature in each spatial unit without incurring in any a-priori definition of territorial units. We are also providing an empirical application of our theoretical setting to study the density distribution of the population across Massachusetts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present a real data set of claims amounts where costs related to damage are recorded separately from those related to medical expenses. Only claims with positive costs are considered here. Two approaches to density estimation are presented: a classical parametric and a semi-parametric method, based on transformation kernel density estimation. We explore the data set with standard univariate methods. We also propose ways to select the bandwidth and transformation parameters in the univariate case based on Bayesian methods. We indicate how to compare the results of alternative methods both looking at the shape of the overall density domain and exploring the density estimates in the right tail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When actuaries face with the problem of pricing an insurance contract that contains different types of coverage, such as a motor insurance or homeowner's insurance policy, they usually assume that types of claim are independent. However, this assumption may not be realistic: several studies have shown that there is a positive correlation between types of claim. Here we introduce different regression models in order to relax the independence assumption, including zero-inflated models to account for excess of zeros and overdispersion. These models have been largely ignored to multivariate Poisson date, mainly because of their computational di±culties. Bayesian inference based on MCMC helps to solve this problem (and also lets us derive, for several quantities of interest, posterior summaries to account for uncertainty). Finally, these models are applied to an automobile insurance claims database with three different types of claims. We analyse the consequences for pure and loaded premiums when the independence assumption is relaxed by using different multivariate Poisson regression models and their zero-inflated versions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies optimal monetary policy in a framework that explicitly accounts for policymakers' uncertainty about the channels of transmission of oil prices into the economy. More specfically, I examine the robust response to the real price of oil that US monetary authorities would have been recommended to implement in the period 1970 2009; had they used the approach proposed by Cogley and Sargent (2005b) to incorporate model uncertainty and learning into policy decisions. In this context, I investigate the extent to which regulator' changing beliefs over different models of the economy play a role in the policy selection process. The main conclusion of this work is that, in the specific environment under analysis, one of the underlying models dominates the optimal interest rate response to oil prices. This result persists even when alternative assumptions on the model's priors change the pattern of the relative posterior probabilities, and can thus be attributed to the presence of model uncertainty itself.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper addresses the issue of policy evaluation in a context in which policymakers are uncertain about the effects of oil prices on economic performance. I consider models of the economy inspired by Solow (1980), Blanchard and Gali (2007), Kim and Loungani (1992) and Hamilton (1983, 2005), which incorporate different assumptions on the channels through which oil prices have an impact on economic activity. I first study the characteristics of the model space and I analyze the likelihood of the different specifications. I show that the existence of plausible alternative representations of the economy forces the policymaker to face the problem of model uncertainty. Then, I use the Bayesian approach proposed by Brock, Durlauf and West (2003, 2007) and the minimax approach developed by Hansen and Sargent (2008) to integrate this form of uncertainty into policy evaluation. I find that, in the environment under analysis, the standard Taylor rule is outperformed under a number of criteria by alternative simple rules in which policymakers introduce persistence in the policy instrument and respond to changes in the real price of oil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Given a sample from a fully specified parametric model, let Zn be a given finite-dimensional statistic - for example, an initial estimator or a set of sample moments. We propose to (re-)estimate the parameters of the model by maximizing the likelihood of Zn. We call this the maximum indirect likelihood (MIL) estimator. We also propose a computationally tractable Bayesian version of the estimator which we refer to as a Bayesian Indirect Likelihood (BIL) estimator. In most cases, the density of the statistic will be of unknown form, and we develop simulated versions of the MIL and BIL estimators. We show that the indirect likelihood estimators are consistent and asymptotically normally distributed, with the same asymptotic variance as that of the corresponding efficient two-step GMM estimator based on the same statistic. However, our likelihood-based estimators, by taking into account the full finite-sample distribution of the statistic, are higher order efficient relative to GMM-type estimators. Furthermore, in many cases they enjoy a bias reduction property similar to that of the indirect inference estimator. Monte Carlo results for a number of applications including dynamic and nonlinear panel data models, a structural auction model and two DSGE models show that the proposed estimators indeed have attractive finite sample properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper tries to resolve some of the main shortcomings in the empirical literature of location decisions for new plants, i.e. spatial effects and overdispersion. Spatial effects are omnipresent, being a source of overdispersion in the data as well as a factor shaping the functional relationship between the variables that explain a firm’s location decisions. Using Count Data models, empirical researchers have dealt with overdispersion and excess zeros by developments of the Poisson regression model. This study aims to take this a step further, by adopting Bayesian methods and models in order to tackle the excess of zeros, spatial and non-spatial overdispersion and spatial dependence simultaneously. Data for Catalonia is used and location determinants are analysed to that end. The results show that spatial effects are determinant. Additionally, overdispersion is descomposed into an unstructured iid effect and a spatially structured effect. Keywords: Bayesian Analysis, Spatial Models, Firm Location. JEL Classification: C11, C21, R30.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest projecte consisteix en generar un programa escrit en llenguatge Java, que utilitzant un motor d'inferència a través d'una llibreria anomenada JESS, pugui llegir un document en format OWL que és una representació de l'ontologia (representació del coneixement) sobre una assignatura, transformant-lo al format de triples que és capaç d'interpretar JESS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compositional random vectors are fundamental tools in the Bayesian analysis of categorical data.Many of the issues that are discussed with reference to the statistical analysis of compositionaldata have a natural counterpart in the construction of a Bayesian statistical model for categoricaldata.This note builds on the idea of cross-fertilization of the two areas recommended by Aitchison (1986)in his seminal book on compositional data. Particular emphasis is put on the problem of whatparameterization to use