992 resultados para Método de Monte Carlo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJETIVO: Propõe-se avaliar os perfis de dose em profundidade e as distribuições espaciais de dose para protocolos de radioterapia ocular por prótons, a partir de simulações computacionais em código nuclear e modelo de olho discretizado em voxels. MATERIAIS E MÉTODOS: As ferramentas computacionais empregadas foram o código Geant4 (GEometry ANd Tracking) Toolkit e o SISCODES (Sistema Computacional para Dosimetria em Radioterapia). O Geant4 é um pacote de software livre, utilizado para simular a passagem de partículas nucleares com carga elétrica através da matéria, pelo método de Monte Carlo. Foram executadas simulações computacionais reprodutivas de radioterapia por próton baseada em instalações pré-existentes. RESULTADOS: Os dados das simulações foram integrados ao modelo de olho através do código SISCODES, para geração das distribuições espaciais de doses. Perfis de dose em profundidade reproduzindo o pico de Bragg puro e modulado são apresentados. Importantes aspectos do planejamento radioterápico com prótons são abordados, como material absorvedor, modulação, dimensões do colimador, energia incidente do próton e produção de isodoses. CONCLUSÃO: Conclui-se que a terapia por prótons, quando adequadamente modulada e direcionada, pode reproduzir condições ideais de deposição de dose em neoplasias oculares.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJETIVO: Determinar a dose efetiva recebida nos exames de tomografia computadorizada abdominal e estudar a influência das características dos pacientes na dose recebida. MATERIAIS E MÉTODOS: Foram realizadas medições dos valores de dose com uma câmara de ionização em objetos simuladores, de forma a verificar se os valores obtidos estavam de acordo com os valores apresentados pelo equipamento de tomografia computadorizada e se estes não ultrapassavam os níveis de referência de dose recomendados. Posteriormente, foram medidos os valores de dose recebida pelos pacientes, com autonomia física, nos exames de tomografia computadorizada abdominal (n = 100) e a relação existente com as suas características antropométricas. Por último, foi simulada a dose nos órgãos por meio do método de Monte Carlo utilizando o software de simulação CT-Expo V 1.5, e estudado o efeito do controle automático de exposição nestes exames. RESULTADOS: As principiais características com influência direta na dose são a massa corporal, o perímetro abdominal e o índice de massa corporal do paciente, cuja relação é linear e positiva. CONCLUSÃO: A dose de radiação recebida nos exames abdominais depende de algumas características dos pacientes, sendo importante ajustar os parâmetros de aquisição às suas dimensões.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Um modelo de predição do preço da celulose foi ajustado usando-se o tempo e o preço defasado como co-variáveis. A partir das estimativas dos parâmetros obtidas, foram propostas 48 possíveis tendências futuras para o preço da celulose. Posteriormente, três métodos de simulação foram usados para predizer os valores futuros definidos pelas várias tendências: M1Þ Pcel.f = µ; M2 Þ Pcel.f = µ + épsilonf, e M3 µf + épsilonf, em que m é a parte sistemática do modelo, e e f corresponde ao componente estocástico. Para as simulações foram usados o método de Monte Carlo e a distribuição triangular. Para comparar os valores simulados pelos três métodos com os conhecidos valores futuros nas várias tendências, foi usada a diferença relativa média entre os valores. No caso da ausência de tendência, os métodos M1 e M2 foram satisfatórios, apesar de o método M2 incluir distúrbios ao redor da média. No caso de haver tendência real, o método M3 teve a melhor "performance", mesmo sendo influenciado pela acurácia na predição da tendência.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A configuração espacial das árvores afeta grande número de processos fisiológicos e ecológicos em uma floresta, incluindo competição, distribuição, tamanho, crescimento e mortalidade da espécie. Métodos baseados na função K de Ripley têm sido usados com frequência para caracterizar a configuração espacial de uma floresta. Neste artigo foram propostos alguns métodos, que são baseados nas áreas do mosaico de Dirichlet (função D), para descrever a distribuição espacial de árvores. Devido à importância da Xylopia brasiliensis (pindaíba) na estrutura e dinâmica de floresta Semidecidual Montana, este trabalho avaliou as funções K e D para descrever a distribuição espacial da espécie. Os resultados indicaram que os estimadores das funções K e D, combinados com simulações Monte Carlo, levaram à rejeição da hipótese de completa aleatoriedade espacial (p < 0,10) da Xylopia brasiliensis em favor da presença de agrupamento espacial da espécie dentro do fragmento florestal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJETIVO: avaliar por meio da fotogrametria as alterações posturais de mulheres com dor pélvica crônica. MÉTODOS: foram avaliadas 30 mulheres com queixa de dor pélvica crônica e 37 sem essa queixa, totalizando 67 mulheres. A avaliação constituiu de anamnese, colocação de marcadores fixos em pontos anatômicos definidos e obtenção de fotografias em vista frontal, posterior, lateral esquerda e direita. A análise das fotos foi realizada com o software CorelDraw®, versão 11.0. Foram identificados valores para as variáveis de análise postural de tornozelo, joelho no plano sagital, pelve, lordose lombar, cifose torácica, escápula aduzida/abduzida, ombros, cabeça e teste do terceiro dedo ao chão. As variáveis qualitativas estudadas foram joelho (varo, valgo ou normal), presença ou não de escápula alada e de nivelamento de ombros. Para as análises estatísticas utilizamos o Statistical Package for Social Sciences, versão 16.0. Para a comparação entre as variáveis qualitativas foi utilizado o teste exato de Fisher e método de Monte-Carlo e, para a comparação de dados quantitativos foi utilizado o teste t ou o de Mann-Whitney. As comparações entre os dados contínuos corrigidos para possíveis variáveis de confusão foram feitas pela análise de covariância univariada. O nível de significância foi estabelecido como 0,05 ou 5%. RESULTADOS: foi observada diferença significante entre casos e controles para cabeça protusa (47,5 e 52,0º, respectivamente; p<0,0001) e ombros protusos (1,9 e 1,6 cm, respectivamente; p=0,03). As demais variáveis não apresentaram diferenças significativas. CONCLUSÕES: com os resultados obtidos sugere-se atenção à postura da cabeça e dos ombros, à postura antálgica e ao fator emocional. A mulher com dor pélvica crônica deve ser tratada levando-se em consideração suas alterações musculoesqueléticas individuais, condições sociais e emocionais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Monográfico con el título: 'Aportaciones de las nuevas tecnologías a la investigación educativa'. Resumen basado en el de la publicación

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Thesis is the result of my Master Degree studies at the Graduate School of Economics, Getúlio Vargas Foundation, from January 2004 to August 2006. am indebted to my Thesis Advisor, Professor Luiz Renato Lima, who introduced me to the Econometrics' world. In this Thesis, we study time-varying quantile process and we develop two applications, which are presented here as Part and Part II. Each of these parts was transformed in paper. Both papers were submitted. Part shows that asymmetric persistence induces ARCH effects, but the LMARCH test has power against it. On the other hand, the test for asymmetric dynamics proposed by Koenker and Xiao (2004) has correct size under the presence of ARCH errors. These results suggest that the LM-ARCH and the Koenker-Xiao tests may be used in applied research as complementary tools. In the Part II, we compare four different Value-at-Risk (VaR) methodologies through Monte Cario experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust method ologies have higher probability to predict VaRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate VaR for returns of São Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper deals with the testing of autoregressive conditional duration (ACD) models by gauging the distance between the parametric density and hazard rate functions implied by the duration process and their non-parametric estimates. We derive the asymptotic justification using the functional delta method for fixed and gamma kernels, and then investigate the finite-sample properties through Monte Carlo simulations. Although our tests display some size distortion, bootstrapping suffices to correct the size without compromising their excellent power. We show the practical usefulness of such testing procedures for the estimation of intraday volatility patterns.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this study, we verify the existence of predictability in the Brazilian equity market. Unlike other studies in the same sense, which evaluate original series for each stock, we evaluate synthetic series created on the basis of linear models of stocks. Following Burgess (1999), we use the “stepwise regression” model for the formation of models of each stock. We then use the variance ratio profile together with a Monte Carlo simulation for the selection of models with potential predictability. Unlike Burgess (1999), we carry out White’s Reality Check (2000) in order to verify the existence of positive returns for the period outside the sample. We use the strategies proposed by Sullivan, Timmermann & White (1999) and Hsu & Kuan (2005) amounting to 26,410 simulated strategies. Finally, using the bootstrap methodology, with 1,000 simulations, we find strong evidence of predictability in the models, including transaction costs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisa e compara, sob as óticas de acurácia e custo, os principais métodos numéricos (simulação de Monte carlo, métodos de diferenças finitas, e modelos baseados em lattice para precificação de opções financeiras, exóticas e reais. Aponta as situações onde cada método deve ser empregado, e apresenta os algoritmos necessários para implementação dos métodos numéricos na prática.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A dinâmica de propagação da ruptura durante terremotos é um dos assuntos mais relevantes e complexos em Sismologia. Um critério constitutivo para a falha que descreva corretamente a relação das variáveis estáticas (tensões normais e tangenciais) com as variáveis cinéticas (deslocamentos e velocidades) na interface é necessário para efetuar uma análise dinâmica confiável. A fim de determinar um critério constitutivo para o deslizamento com atrito ao longo da falha sísmica, primeiramente apresentam-se métodos para caracterizar as superfícies deslizantes e discutem-se os principais critérios constitutivos que têm sido usados. Também são apresentados os resultados de um estudo experimental realizado, evidenciando, para sólidos metálicos em contato, uma lei constitutiva de variação do atrito com a velocidade. Um modelo numérico tridimensional baseado no Método dos Elementos Discretos (DEM) é usado para representar a região de rocha adjacente à falha. O modelo consiste de uma estrutura tridimensional periódica com massas concentradas nos nós, interconectadas por elementos visco-elásticos unidimensionais. Inicialmente, de acordo com modelos usuais em Sismologia, admite-se que o material é elástico, linear e homogêneo. Em uma segunda análise, a influência da não-homogeneidade do material é avaliada considerando que a massa específica, o módulo de Young e o coeficiente de atrito são campos aleatórios Gaussianos correlacionados. Na análise seguinte, o efeito da fratura na região de rocha adjacente à falha é também numericamente avaliado. Por fim, a influência de ruptura de micro-asperezas nas superfícies deslizantes é analisada. Através de simulação de Monte Carlo, as relações constitutivas macro (ou globais) para a falha são obtidas, admitindo como leis constitutivas micro (ou locais) os dois critérios mais usados em Sismologia: a lei de variação do atrito com a velocidade e a lei de variação do atrito com o deslizamento. Quando os blocos de rocha são admitidos serem elásticos e homogêneos não há um efeito de escala. Novamente, quando a rocha é considerada não-homogênea não há um efeito de escala significativo, apenas pequenas variações nos parâmetros das leis constitutivas macro em relação às leis micro são percebidas, exceto pela influência do campo aleatório do coeficiente de atrito, o qual apresenta um efeito de escala perceptível. A ocorrência de fratura nas proximidades da falha não causa modificações significativas nas leis constitutivas macro, apenas causa algumas oscilações em torno da lei sem fratura. Finalmente, obtém-se um critério constitutivo macro que leva em consideração a ruptura por cisalhamento das micro-asperezas nas superfícies deslizantes. O modelo é chamado lei modificada de variação do atrito com a velocidade e é considerado um critério constitutivo mais geral.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties as well as the traditional ones. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank using our proposed procedure, relative to an unrestricted VAR or a cointegrated VAR estimated by the commonly used procedure of selecting the lag-length only and then testing for cointegration. Two empirical applications forecasting Brazilian in ation and U.S. macroeconomic aggregates growth rates respectively show the usefulness of the model-selection strategy proposed here. The gains in di¤erent measures of forecasting accuracy are substantial, especially for short horizons.