992 resultados para Metodo de Monte Carlo - Simulação por computador
Resumo:
Introdução: Áreas contaminadas por agentes químicos perigosos em regiões urbanas representam riscos importantes à saúde humana e ao ambiente. Vila Carioca, localizada na cidade de São Paulo, é uma área contaminada por pesticidas organoclorados considerada crítica, pela magnitude da contaminação, pela presença de pessoas residentes e pela complexidade de fontes da contaminação. Vários estudos de riscos já foram realizados por uma das empresas contaminadoras, no entanto, ainda há muita incerteza e controvérsias sobre os riscos à saúde da população. Objetivo: Avaliar o incremento de risco de câncer no tempo de vida para população exposta por meio de uma avaliação probabilística. Método: Foram utilizados dados secundários das contaminações obtidos nos estudos de riscos efetuados pela empresa produtora de pesticidas organoclorados e também em documentos oficiais dos órgãos de saúde e meio ambiente do Estado de São Paulo, resultantes do monitoramento da água e do solo na área residencial no período de 1997 a 2012, para 335 substâncias. Foram selecionadas substâncias carcinogênicas presentes na água subterrânea e solo com melhor conjunto de dados. Para a avaliação probabilística foi empregado o método de simulação de Monte Carlo, por meio do software comercial ModelRisk. Foram utilizados os métodos recomendados pela United States Environmental Protection Agency para a avaliação de risco de exposição dérmica e de incremento de riscos de câncer para substâncias mutagênicas. Foram consideradas a ingestão de água e solo, e contato dérmico com água. Resultados: O incremento de risco de câncer no tempo de vida (IRLT) foi de 4,7x10-3 e 4,1x10-2 para o percentil 50% e 95%, respectivamente. As rotas de exposição mais importantes foram ingestão e contato dérmico com a água subterrânea, seguido da ingestão de solo. O grupo etário que apresentou maior risco foi o das crianças de 0 a 2 anos de idade. Conclusão: Os riscos estimados são superiores aos valores considerados toleráveis. A avaliação realizada foi conservativa, mas ressalta-se que a restrição do uso da água subterrânea deve ser mantida e que a população deve ser devidamente informada dos riscos envolvidos na área, em especial, relacionados ao solo contaminado
Resumo:
Os controladores eletrônicos de pulverização visam minimizar a variação das taxas de insumos aplicadas no campo. Eles fazem parte de um sistema de controle, e permitem a compensação da variação de velocidade de deslocamento do pulverizador durante a operação. Há vários tipos de controladores eletrônicos de pulverização disponíveis no mercado e uma das formas de selecionar qual o mais eficiente nas mesmas condições, ou seja, em um mesmo sistema de controle, é quantificar o tempo de resposta do sistema para cada controlador específico. O objetivo desse trabalho foi estimar os tempos de resposta para mudanças de velocidade de um sistema eletrônico de pulverização via modelos de regressão não lineares, estes, resultantes da soma de regressões lineares ponderadas por funções distribuição acumulada. Os dados foram obtidos no Laboratório de Tecnologia de Aplicação, localizado no Departamento de Engenharia de Biossistemas da Escola Superior de Agricultura \"Luiz de Queiroz\", Universidade de São Paulo, no município de Piracicaba, São Paulo, Brasil. Os modelos utilizados foram o logístico e de Gompertz, que resultam de uma soma ponderada de duas regressões lineares constantes com peso dado pela função distribuição acumulada logística e Gumbell, respectivamente. Reparametrizações foram propostas para inclusão do tempo de resposta do sistema de controle nos modelos, com o objetivo de melhorar a interpretação e inferência estatística dos mesmos. Foi proposto também um modelo de regressão não linear difásico que resulta da soma ponderada de regressões lineares constantes com peso dado pela função distribuição acumulada Cauchy seno hiperbólico exponencial. Um estudo de simulação foi feito, utilizando a metodologia de Monte Carlo, para avaliar as estimativas de máxima verossimilhança dos parâmetros do modelo.
Resumo:
No último século, houve grande avanço no entendimento das interações das radiações com a matéria. Essa compreensão se faz necessária para diversas aplicações, entre elas o uso de raios X no diagnóstico por imagens. Neste caso, imagens são formadas pelo contraste resultante da diferença na atenuação dos raios X pelos diferentes tecidos do corpo. Entretanto, algumas das interações dos raios X com a matéria podem levar à redução da qualidade destas imagens, como é o caso dos fenômenos de espalhamento. Muitas abordagens foram propostas para estimar a distribuição espectral de fótons espalhados por uma barreira, ou seja, como no caso de um feixe de campo largo, ao atingir um plano detector, tais como modelos que utilizam métodos de Monte Carlo e modelos que utilizam aproximações analíticas. Supondo-se um espectro de um feixe primário que não interage com nenhum objeto após sua emissão pelo tubo de raios X, este espectro é, essencialmente representado pelos modelos propostos anteriormente. Contudo, considerando-se um feixe largo de radiação X, interagindo com um objeto, a radiação a ser detectada por um espectrômetro, passa a ser composta pelo feixe primário, atenuado pelo material adicionado, e uma fração de radiação espalhada. A soma destas duas contribuições passa a compor o feixe resultante. Esta soma do feixe primário atenuado, com o feixe de radiação espalhada, é o que se mede em um detector real na condição de feixe largo. O modelo proposto neste trabalho visa calcular o espectro de um tubo de raios X, em situação de feixe largo, o mais fidedigno possível ao que se medem em condições reais. Neste trabalho se propõe a discretização do volume de interação em pequenos elementos de volume, nos quais se calcula o espalhamento Compton, fazendo uso de um espectro de fótons gerado pelo Modelo de TBC, a equação de Klein-Nishina e considerações geométricas. Por fim, o espectro de fótons espalhados em cada elemento de volume é somado ao espalhamento dos demais elementos de volume, resultando no espectro total espalhado. O modelo proposto foi implementado em ambiente computacional MATLAB® e comparado com medições experimentais para sua validação. O modelo proposto foi capaz de produzir espectros espalhados em diferentes condições, apresentando boa conformidade com os valores medidos, tanto em termos quantitativos, nas quais a diferença entre kerma no ar calculado e kerma no ar medido é menor que 10%, quanto qualitativos, com fatores de mérito superiores a 90%.
Resumo:
A presença da Medicina Nuclear como modalidade de obtenção de imagens médicas é um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de analisar o comportamento metabólico do paciente, traduzindo-se em diagnósticos precoces. Entretanto, sabe-se que a quantificação em Medicina Nuclear é dificultada por diversos fatores, entre os quais estão a correção de atenuação, espalhamento, algoritmos de reconstrução e modelos assumidos. Neste contexto, o principal objetivo deste projeto foi melhorar a acurácia e a precisão na análise de imagens de PET/CT via processos realísticos e bem controlados. Para esse fim, foi proposta a elaboração de uma estrutura modular, a qual está composta por um conjunto de passos consecutivamente interligados começando com a simulação de phantoms antropomórficos 3D para posteriormente gerar as projeções realísticas PET/CT usando a plataforma GATE (com simulação de Monte Carlo), em seguida é aplicada uma etapa de reconstrução de imagens 3D, na sequência as imagens são filtradas (por meio do filtro de Anscombe/Wiener para a redução de ruído Poisson caraterístico deste tipo de imagens) e, segmentadas (baseados na teoria Fuzzy Connectedness). Uma vez definida a região de interesse (ROI) foram produzidas as Curvas de Atividade de Entrada e Resultante requeridas no processo de análise da dinâmica de compartimentos com o qual foi obtida a quantificação do metabolismo do órgão ou estrutura de estudo. Finalmente, de uma maneira semelhante imagens PET/CT reais fornecidas pelo Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) foram analisadas. Portanto, concluiu-se que a etapa de filtragem tridimensional usando o filtro Anscombe/Wiener foi relevante e de alto impacto no processo de quantificação metabólica e em outras etapas importantes do projeto em geral.
Resumo:
This work presents a new model for the Heterogeneous p-median Problem (HPM), proposed to recover the hidden category structures present in the data provided by a sorting task procedure, a popular approach to understand heterogeneous individual’s perception of products and brands. This new model is named as the Penalty-free Heterogeneous p-median Problem (PFHPM), a single-objective version of the original problem, the HPM. The main parameter in the HPM is also eliminated, the penalty factor. It is responsible for the weighting of the objective function terms. The adjusting of this parameter controls the way that the model recovers the hidden category structures present in data, and depends on a broad knowledge of the problem. Additionally, two complementary formulations for the PFHPM are shown, both mixed integer linear programming problems. From these additional formulations lower-bounds were obtained for the PFHPM. These values were used to validate a specialized Variable Neighborhood Search (VNS) algorithm, proposed to solve the PFHPM. This algorithm provided good quality solutions for the PFHPM, solving artificial generated instances from a Monte Carlo Simulation and real data instances, even with limited computational resources. Statistical analyses presented in this work suggest that the new algorithm and model, the PFHPM, can recover more accurately the original category structures related to heterogeneous individual’s perceptions than the original model and algorithm, the HPM. Finally, an illustrative application of the PFHPM is presented, as well as some insights about some new possibilities for it, extending the new model to fuzzy environments
Resumo:
In the last decades the study of integer-valued time series has gained notoriety due to its broad applicability (modeling the number of car accidents in a given highway, or the number of people infected by a virus are two examples). One of the main interests of this area of study is to make forecasts, and for this reason it is very important to propose methods to make such forecasts, which consist of nonnegative integer values, due to the discrete nature of the data. In this work, we focus on the study and proposal of forecasts one, two and h steps ahead for integer-valued second-order autoregressive conditional heteroskedasticity processes [INARCH (2)], and in determining some theoretical properties of this model, such as the ordinary moments of its marginal distribution and the asymptotic distribution of its conditional least squares estimators. In addition, we study, via Monte Carlo simulation, the behavior of the estimators for the parameters of INARCH(2) processes obtained using three di erent methods (Yule- Walker, conditional least squares, and conditional maximum likelihood), in terms of mean squared error, mean absolute error and bias. We present some forecast proposals for INARCH(2) processes, which are compared again via Monte Carlo simulation. As an application of this proposed theory, we model a dataset related to the number of live male births of mothers living at Riachuelo city, in the state of Rio Grande do Norte, Brazil.
Resumo:
In the last decades the study of integer-valued time series has gained notoriety due to its broad applicability (modeling the number of car accidents in a given highway, or the number of people infected by a virus are two examples). One of the main interests of this area of study is to make forecasts, and for this reason it is very important to propose methods to make such forecasts, which consist of nonnegative integer values, due to the discrete nature of the data. In this work, we focus on the study and proposal of forecasts one, two and h steps ahead for integer-valued second-order autoregressive conditional heteroskedasticity processes [INARCH (2)], and in determining some theoretical properties of this model, such as the ordinary moments of its marginal distribution and the asymptotic distribution of its conditional least squares estimators. In addition, we study, via Monte Carlo simulation, the behavior of the estimators for the parameters of INARCH(2) processes obtained using three di erent methods (Yule- Walker, conditional least squares, and conditional maximum likelihood), in terms of mean squared error, mean absolute error and bias. We present some forecast proposals for INARCH(2) processes, which are compared again via Monte Carlo simulation. As an application of this proposed theory, we model a dataset related to the number of live male births of mothers living at Riachuelo city, in the state of Rio Grande do Norte, Brazil.
Resumo:
Lo scopo della tesi è di stimare le prestazioni del rivelatore ALICE nella rivelazione del barione Lambda_c nelle collisioni PbPb usando un approccio innovativo per l'identificazione delle particelle. L'idea principale del nuovo approccio è di sostituire l'usuale selezione della particella, basata su tagli applicati ai segnali del rivelatore, con una selezione che usi le probabilità derivate dal teorema di Bayes (per questo è chiamato "pesato Bayesiano"). Per stabilire quale metodo è il più efficiente , viene presentato un confronto con altri approcci standard utilizzati in ALICE. Per fare ciò è stato implementato un software di simulazione Monte Carlo "fast", settato con le abbondanze di particelle che ci si aspetta nel nuovo regime energetico di LHC e con le prestazioni osservate del rivelatore. E' stata quindi ricavata una stima realistica della produzione di Lambda_c, combinando i risultati noti da esperimenti precedenti e ciò è stato usato per stimare la significatività secondo la statistica al RUN2 e RUN3 dell'LHC. Verranno descritti la fisica di ALICE, tra cui modello standard, cromodinamica quantistica e quark gluon plasma. Poi si passerà ad analizzare alcuni risultati sperimentali recenti (RHIC e LHC). Verrà descritto il funzionamento di ALICE e delle sue componenti e infine si passerà all'analisi dei risultati ottenuti. Questi ultimi hanno mostrato che il metodo risulta avere una efficienza superiore a quella degli usuali approcci in ALICE e che, conseguentemente, per quantificare ancora meglio le prestazioni del nuovo metodo si dovrebbe eseguire una simulazione "full", così da verificare i risultati ottenuti in uno scenario totalmente realistico.
Resumo:
As rápidas alterações sociais, económicas, culturais e ambientais determinaram mudanças significativas nos estilos de vida e contribuíram para o crescimento e generalização do consumo de alimentos e refeições fora de casa. Portugal acompanha a tendência de aumento do consumo alimentar fora de casa, assim, as refeições fora de casa, que há uns anos eram um acontecimento fortuito, são hoje uma prática habitual das famílias portuguesas, não só durante a semana de trabalho, mas também nos fins-de-semana. As, visitas aos centros comerciais que se tornaram um hábito no nosso país incluem uma paragem nas Praças de Alimentação, espaços de excelência pela diversidade alimentar onde predominam as refeições de fast-food. Porém é fundamental a escolha adequada/equilibrada dos alimentos que se vão consumir. O presente trabalho procurou avaliar os hábitos e percepção dos consumidores de refeições rápidas com base numa ementa específica cujo alimento principal é o pão. Posteriormente e de acordo com as preferências de consumo procedeu-se à avaliação nutricional das escolhas. Neste estudo participaram 150 indivíduos que frequentaram as instalações de um restaurante de comida rápida situada na praça de alimentação de um centro comercial situado em Viseu. Foi aplicado um questionário de autopreenchimento, por nós elaborado dividido em 4 partes: caracterização sociodemográfica; hábitos de consumo dos inquiridos; produtos escolhidos pelos inquiridos; grau de satisfação face aos produtos escolhidos. As análises estatísticas foram efectuadas com recurso ao Programa informático Statistical Package for the Social Sciences - SPSS® for Windows, versão 22. Realizam-se testes de Qui-quadrado com simulação de Monte Carlo, considerando o nível de significância de 0,05. Com base nas escolhas mais frequentes feitas pelos inquiridos procedeu-se à avaliação nutricional dos menus recorrendo ao programa DIAL 1.19 versão 1 e quando não se encontrou informação neste utilizou-se a tabela de composição de alimentos portugueses on line (INSA, 2010). Compararam-se os valores obtidos para o Valor Calórico Total, os macronutrientes, a fibra, o colesterol e o sódio com as Doses Diárias Recomendadas. A amostra era composta por 68,7% mulheres e 31,3% homens, com uma média de idades de 29,9 ± 3 anos e, maioritariamente empregados (64,7%). O grau de instrução da maioria dos inquiridos (54,7%) era o ensino superior. Grande parte da amostra não se considera consumidora habitual de fast-food,referindo ainda efectuar frequentemente uma alimentação equilibrada. Sendo que apenas 5 % frequenta as instalações mais de uma vez por semana. De entre os produtos disponíveis, a preferência fez-se pela sandes e batata-frita, sendo o momento de maior consumo o almoçoA avaliação nutricional das escolhas preferenciais dos inquiridos mostrou que o VCT do menu que inclui água como bebida está dentro dos limites calóricos preconizados para o almoço excepção feita ao menu que inclui sandes quente de frango em pão de orégãos e sandes fria de queijo fresco que se destacam por apresentar um valor inferior ao limite mínimo recomendado. Pelo contrário, a inclusão no menu do refrigerante faz com que haja um aumento do VCT, independentemente da sandes considerada, em 18%. Uma análise detalhada mostra que estas ementas são desequilibradas, apresentando 33,3% delas valores de proteínas superiores à DDR enquanto que os valores de HC e lípidos se encontram maioritariamente dentro dos limites havendo apenas 13,3% das ementas fora desses valores. Relativamente ao aporte de fibra e de sódio 86,7% das ementas aparecem desenquadradas com valores excessivos de sódio e valores de fibra 33% abaixo do limite mínimo recomendado. Tratando-se de um estudo de caso em que apenas se inclui um único restaurante de uma praça de alimentação, que fornece ementas à base de pão (sandes) os resultados são interpretados de forma cautelosa e sem generalização. Podemos no entanto concluir, face aos resultados obtidos a necessidade de redução do teor de sal das ementas. Para além disso parece-nos fundamental, para que o consumidor possa comparar opções alimentares e tomar decisões informadas, a disponibilização da informação nutricional das ementas propostas.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Florestal, 2016.
Resumo:
Os procedimentos médicos imagiológicos com recurso ao uso de radiações ionizantes têm vindo a crescer de ano para ano, contribuindo para um aumento da dose a que está exposta a população em geral. No entanto e apesar de os benefícios serem ainda superiores aos riscos, os princípios de radioproteção exigem que se tenha em linha de conta os cuidados com a proteção radiológica e que se pratiquem procedimentos seguros e com o mínimo de radiação possível. Isto é particularmente importante no caso da Medicina Nuclear (PET e SPECT), visto que a fonte de radiação é interna e continua a irradiar o doente mesmo depois de terminado o exame radiológico em causa. Nesse sentido, este projeto tem como principal objetivo criar um modelo dosimétrico com base em medidas de área retiradas do local de estudo, a fim de se conseguir prever a dose de radiação a que cada utilizador das instalações pode estar sujeito e ajudar a perceber os locais que determinado grupo de indivíduos (profissionais ou doentes) devem evitar. Para retirar as medidas de área foi usado um detetor de débito de dose RadEyeTM B20, que permite detetar com fiabilidade e rapidez taxas de dose de radiação alfa, beta, gama e X. Com recurso a este detetor, fez-se então uma aquisição metódica das medidas em pontos previamente marcados no piso 0 e no piso -1 do ICNAS, considerados os mais importantes pois é nestes que se realiza a circulação dos utentes. No entanto, a aquisição era só uma parte do projeto, visto que foi necessário depois inseri-los num algoritmo de simulação de Monte Carlo em conjunto com uma interface gráfica para se poder obter os cálculos de dose de exposição com uma interação simples e intuitiva com o utilizador. De acordo com as medidas de dose retiradas com recurso ao detetor utilizado, podemos verificar que os locais com mais radiação associada são no piso 0 a radiofarmácia, a sala de espera dos injetados e as salas das câmaras gama. No piso -1 os pontos considerados mais quentes em termos de radiação são a sala da PET/TC e as salas de espera dos doentes injetados. Com os dados retirados construiu-se uma base estatística adequada, sendo inserida num algoritmo construído para se conseguir criar o modelo de simulação para cálculo de doses para diversas trajetórias dos mais variados utilizadores das instalações do Instituto. Este modelo dosimétrico, criado a partir do estudo das medidas de dose retiradas nos pontos selecionados, pode vir a tornar-se útil visto que pode ser utilizado como uma ferramenta de simulação e por conseguinte, conseguir prever a quantidade de radiação a que cada indivíduo está sujeito quando percorrer os diversos locais nos diferentes pisos do ICNAS. Esta pode vir a ser usada em conjunto com as ferramentas de monitorização pessoal, contribuindo assim para reduzir o valor de dose ocupacional de cada utilizador.
Resumo:
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Florestal, Programa de Pós-Graduação em Ciências Florestais, 2015.
Resumo:
O cultivo de eucalipto para produção de lenha está sujeito a um conjunto de incertezas relacionadas às dificuldades de previsibilidade de eventos futuros que impactam na rentabilidade dos projetos. Neste contexto, a análise de simulação pode ser adotada objetivando conhecer o risco que tais oscilações nas variáveis de entrada têm sobre o retorno de um investimento. Assim, o objetivo deste trabalho foi avaliar o risco do retorno econômico de um sistema de produção modal de eucalipto para lenha. A avaliação foi realizada na região de Itapeva/SP. Foram utilizadas técnicas de entrevistas e painel com especialistas, representando a prática adotada por grandes produtores. Os indicadores de viabilidade econômica considerados foram o Valor Anual Equivalente (VAE), a Taxa Interna de Retorno (TIR) e o Custo Médio de Produção (CMPr). O risco foi avaliado considerando o emprego do Método de Monte Carlo, com o uso do software @RISK, considerando dois regimes de manejo e simulação do preço da madeira (já entregue ao cliente), da produtividade esperada, e dos rendimentos das operações de coveamento (implantação), corte e extração (colheita). Os resultados indicaram que o regime de manejo com duas rotações proporciona menor risco para a atividade e que o preço da madeira e a produção esperada são as variáveis de risco que mais impactam o resultado econômico.
Avaliação econômica e de risco em sistema de produção de soja na região de Santarém, estado do Pará.
Resumo:
A soja tem contribuição importante no cenário brasileiro. Sua expansão para fronteira amazônica tem chamado atenção, incluindo o Estado do Pará, particularmente pelos fatores de custo de produção, devido à carência de infraestrutura e mercado de insumos. Neste contexto a análise econômica e de risco dos polos produtores de soja no Pará é importante para elaboração de medidas adequadas para sustentabilidade econômica do investimento. A avaliação econômicofinanceira dos sistemas ocorreu com base na Análise de Custo-Benefício (ACB), utilizando como indicador a Receita Líquida obtida. Foi realizada, uma análise de eficiência que considera o fator risco, tendo sido utilizado o método de simulação monte-carlo, por meio do software @-RISK. De acordo com as estatísticas da receita líquida, o sistema produtivo de soja se mostra com muita variabilidade, de acordo com o desvio padrão, máxima e mínima. De acordo com a porcentagem de risco a soja apresentou nível médio a elevado de risco.