872 resultados para Análise de séries temporais - Métodos de simulação
Resumo:
Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.
Resumo:
Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.
Resumo:
Decifrar a complexa interacção entre os ciclos de vida de espécies marinhas e a oceanografia revela-se fundamental para a compreensão do fluxo genético e da conectividade no meio marinho. Nas espécies marinhas com desenvolvimento indirecto o fluxo de genes entre populações depende da distância que separa as populações, bem como da interacção entre a duração do desenvolvimento larvar, do comportamento das larvas e dos padrões de circulação oceânica. A conectividade larvar influencia uma variedade de processos como a dinâmica de stocks e de populações, a distribuição e limites geográficos das espécies, a estrutura genética das populações e a dispersão de espécies invasivas e reveste-se consequentemente de uma importância fundamental na identificação das unidades populacionais evolucionariamente relevantes e para a gestão e conservação marinhas. Os marcadores genéticos e os Modelos Individuais Acoplados a Modelos Físico-Biológicos (“ICPBMs”) são actualmente ferramentas fundamentais para o estudo dos padrões de dispersão larvar e para avaliar o nível de conectividade populacional. A presente tese respeita à avaliação das escalas espaciais de conectividade de populações de uma espécie costeira, o caranguejo Carcinus maenas, e utiliza conjuntamente informação de marcadores genéticos, análise de séries temporais de fornecimento de larvas e um modelo numérico de circulação oceânica. O primeiro capítulo introduz a temática da conectividade em espécies marinhas e inclui algumas referências aos métodos moleculares, analíticos e de modelação seguidos ao longo da tese. Através da utilização de múltiplas ferramentas – avaliação da estrutura genética geográfica de C. maenas na sua distribuição nativa com recurso a marcadores de DNA (microssatélites) (Capítulo 2), avaliação da estrutura genética temporal das larvas que formam os eventos de fornecimento larvar à Ria de Aveiro, NW Portugal (Capítulo 3), descrição da variabilidade inter-anual do fornecimento larvar à Ria de Aveiro, NW Portugal (Capítulo 4) e validação de um modelo ICPBM que descreve os padrões observados de fornecimento (Capítulo 5) – esta tese espera poder contribuir para uma melhor compreensão dos mecanismos que regulam o fluxo de genes e a conectividade entre populações de organismos marinhos. No Capítulo 6 são apresentadas as principais conclusões da investigação. A análise genética com recurso a microssatélites indicou que as populações de C. maenas são geneticamente homogéneas ao longo de várias centenas de km, dentro da distribuição nativa da espécie. Paralelamente, não foram encontrados indícios da existência de reprodução por “sweepstakes” em C. maenas de populações da costa oeste da Península Ibérica, visto que não se obtiveram diferenças genéticas significativas entre os eventos larvares. Também não se encontrou qualquer estrutura familiar entre as larvas que formam cada episódio de fornecimento, e não houve nenhuma redução significativa da variabilidade genética das larvas quando comparada com a de caranguejos adultos. A análise de séries temporais de suprimento de larvas na Ria de Aveiro em cinco anos estudados indica que este é um fenómeno episódico e variável, sendo os maiores episódios de fornecimento coincidentes com as marés vivas e acentuados por fortes ventos de sul. O modelo ICPBM foi validado com sucesso e parece fornecer uma estimativa realística das escalas espaciais e temporais de dispersão larvar, de acordo com as observações da estrutura genética e da ausência de reprodução por “sweepstake” em C. maenas da costa oeste da Península Ibérica
Resumo:
Este trabalho focou-se no estudo de técnicas de sub-espaço tendo em vista as aplicações seguintes: eliminação de ruído em séries temporais e extracção de características para problemas de classificação supervisionada. Foram estudadas as vertentes lineares e não-lineares das referidas técnicas tendo como ponto de partida os algoritmos SSA e KPCA. No trabalho apresentam-se propostas para optimizar os algoritmos, bem como uma descrição dos mesmos numa abordagem diferente daquela que é feita na literatura. Em qualquer das vertentes, linear ou não-linear, os métodos são apresentados utilizando uma formulação algébrica consistente. O modelo de subespaço é obtido calculando a decomposição em valores e vectores próprios das matrizes de kernel ou de correlação/covariância calculadas com um conjunto de dados multidimensional. A complexidade das técnicas não lineares de subespaço é discutida, nomeadamente, o problema da pre-imagem e a decomposição em valores e vectores próprios de matrizes de dimensão elevada. Diferentes algoritmos de préimagem são apresentados bem como propostas alternativas para a sua optimização. A decomposição em vectores próprios da matriz de kernel baseada em aproximações low-rank da matriz conduz a um algoritmo mais eficiente- o Greedy KPCA. Os algoritmos são aplicados a sinais artificiais de modo a estudar a influência dos vários parâmetros na sua performance. Para além disso, a exploração destas técnicas é extendida à eliminação de artefactos em séries temporais biomédicas univariáveis, nomeadamente, sinais EEG.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Humanas, Departamento de Geografia, Programa de Pós-Graduação em Geografia, 2015.
Resumo:
Estudamos neste trabalho, o nível de significância empírico dos testes portmanteau baseados nas estatísticas propostas por Ljung e Box (1978), Monti (1994) e Pe˜na e Rodríguez (2002) nos processos ARFIMA(p; d; q). Consideramos o processo ARFIMA(p; d; q) nas situações adequadas para representar séries temporais com características de longa dependência. Para estimar o parâmetro de diferenciação d utilizamos os métodos de estimação propostos por Geweke e Porter-Hudak (1983), Reisen (1994), Robinson (1994) e Fox e Taqqu (1983).
Resumo:
Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.
Resumo:
Este trabalho apresenta técnicas econométricas de análise de séries temporais que permitem testar, empiricamente, hipóteses sobre a definição da dimensão geográfica de mercados relevantes. Estas técnicas são aplicadas ao mercado brasileiro de resinas termoplásticas polietilenos e polipropileno com o objetivo de obter subsídios para a correta caracterização de sua dimensão geográfica. Os resultados obtidos adicionam evidências no sentido de que estes mercados relevantes geográficos podem ser definidos como internacionais. A técnica da cointegração indica que existe uma relação estável de longo prazo entre os preços das resinas produzidas domesticamente e das resinas internalizadas. Desvios desta relação têm caráter transitório. Por intermédio da análise da decomposição de variância percebe-se que os erros de previsão dos valores das resinas domésticas passam a ser rapidamente explicados pelas variações ocorridas nos preços das resinas internalizadas, sendo que o oposto não ocorre, ou seja, os preços das resinas internalizadas são explicados primordialmente por seus próprios desvios. Por fim, a Técnica da causalidade de Granger aponta que apenas o preço das resinas internalizadas causa , no sentido de Granger, o preço das resinas domésticas. O oposto não é valido e as variações nos preços das resinas domésticas não adicionam capacidade de previsão dos preços das resinas internalizadas.
Resumo:
Este trabalho compara procedimentos de previsão de preços de commodities, utilizados de maneira impírica pelos analistas de mercado, com os procedimentos fornecidos pela Análise de Séries Temporais. Aplicamos os métodos de previsão utilizando as Médias Móveis, os métodos baseados em Alisamentos exponenciais e principalmente os modelos ARIMA de Box-Jenkins. Estes últimos são, em geral, generalizações dos primeiros, com a vantagem de utilizar os instrumentos estatísticos de medidas das incertezas, como o desvio-padrão e os intervalos de confiança para as previsões
Resumo:
Analisa-se o acordo setorial automobilístico mostrando que o mesmo introduziu uma mudança estrutural no comportamento da produção de automóveis. Considera-se que a evidência estatística pode ser interpretada como argumento em favor da tese de que o tal acordo foi importante para suportar a indústria nacional em uma conjuntura de maior exposição aos mercados externos.
Resumo:
O trabalho apresenta análise e comentários sobre os critérios ideais para a tomada de decisão de viabilidade de um negócio imobiliário. Inicia comparando e elegendo os indicadores financeiros mais adequados. Posteriormente trata a decisão diante do risco e incerteza do mercado de incorporações imobiliárias utilizando como ferramentas a gestão dinâmica e a simulação para estimar a velocidade de vendas e obter probabilidade dos resultados. O modelo desenvolvido confere e recomenda um tratamento mais técnico e apurado ao processo de tomada de decisão e expõe suas vantagens diante da realidade mais simplista na análise de fluxo de caixa que é característica dominante do mercado atual
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.
Resumo:
O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.
Estimativa de provisões de IBNR utilizando espaço de estados e filtro de Kalman : um caso brasileiro
Resumo:
Esta dissertação pretende discutir a provisão de sinistros do tipo IBNR, bem como qual a melhor forma de estimar estas provisões. Para tanto, serão utilizados dados reais de uma grande seguradora Brasileira para um produto de seguro de um ramo Não Vida. Serão utilizados no cálculo o clássico método Chain Ladder e em contrapartida um modelo de Espaço de Estados e Filtro de Kalman, discutindo as flexibilidades, vantagens e desvantagens de se utilizar tal metodologia.