1000 resultados para erro médio quadrático (MSE)
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.
Resumo:
O estudo busca identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real efetiva e analisar a robustez dessas previsões. Foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Utilizando esse método, encontramos modelos que cointegravam entre si, para os países analisados. A partir desses modelos, foram feitas previsões fora da amostra a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio (EQM) e Modelo do Conjunto de Confiança de Hansen (MCS) utilizando um modelo de passeio aleatório do câmbio real como benchmark. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da taxa de câmbio real efetivo.
Resumo:
The increase in ultraviolet radiation (UV) at surface, the high incidence of non-melanoma skin cancer (NMSC) in coast of Northeast of Brazil (NEB) and reduction of total ozone were the motivation for the present study. The overall objective was to identify and understand the variability of UV or Index Ultraviolet Radiation (UV Index) in the capitals of the east coast of the NEB and adjust stochastic models to time series of UV index aiming make predictions (interpolations) and forecasts / projections (extrapolations) followed by trend analysis. The methodology consisted of applying multivariate analysis (principal component analysis and cluster analysis), Predictive Mean Matching method for filling gaps in the data, autoregressive distributed lag (ADL) and Mann-Kendal. The modeling via the ADL consisted of parameter estimation, diagnostics, residuals analysis and evaluation of the quality of the predictions and forecasts via mean squared error and Pearson correlation coefficient. The research results indicated that the annual variability of UV in the capital of Rio Grande do Norte (Natal) has a feature in the months of September and October that consisting of a stabilization / reduction of UV index because of the greater annual concentration total ozone. The increased amount of aerosol during this period contributes in lesser intensity for this event. The increased amount of aerosol during this period contributes in lesser intensity for this event. The application of cluster analysis on the east coast of the NEB showed that this event also occurs in the capitals of Paraiba (João Pessoa) and Pernambuco (Recife). Extreme events of UV in NEB were analyzed from the city of Natal and were associated with absence of cloud cover and levels below the annual average of total ozone and did not occurring in the entire region because of the uneven spatial distribution of these variables. The ADL (4, 1) model, adjusted with data of the UV index and total ozone to period 2001-2012 made a the projection / extrapolation for the next 30 years (2013-2043) indicating in end of that period an increase to the UV index of one unit (approximately), case total ozone maintain the downward trend observed in study period
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
The use of the History and the Philosophy of Science (HPS) for the teaching of science and scientific subjects has been advocated in recent decades. It has been pointed out that the History of Science could make for a deeper learning of scientific concepts, since it would promote a contact with the problems which that knowledge has set out to solve. Furthermore, historical episodes would serve to put the discussions about the nature of scientific knowledge into context. With a view to explore those potentialities, the literature in the field has sought to identify the challenges and obstacles for the didactic transposition of subjects from the History of Science. Amongst many aspects, the deficiencies in the training of teachers, so that they can work with the insertion of HPS in the classroom have been highlighted. Another aspect that has been mentioned to be a challenge has to do with the didactic transposition of the Primary Sources, that is, of the original texts on the History of Science. The Primary Sources have significant potentialities: making a connection possible between scientists and concepts, showing the difficulties faced during scientific endeavors, perceiving the role of mistakes as obstacles to be surpassed, not as defeat, etc. On the other hand, there has been little exploration of these concepts in an educational context, due to their own peculiarities. The original texts are often hard to understand and their interpretation demands knowledge of the historical and scientific context in which they were written, as well as skills pertaining to the conduction of research in the field of the History of Science. With this scenario in mind, the research towards this Professional MSc degree starts from the challenge of elaborating and discussing proposals which could enable the didactical transposition of the Primary Sources. We have worked specifically with Primary Sources on the History of the Vacuum and of the Atmospheric Pressure, because of the insertion of these subjects in the Brazilian High School curriculum, in connection with the didactical textbooks. "Historic Journals" were made up from clippings of the original historical texts, as was a Didactical Unit, which takes the usual textbooks as a basis and contemplates using the Journals and the entire Primary Sources in High School. At last, we have elaborated and implemented a course designed for the preparation of teachers and for being an opportunity for the discussion of the feasibility of putting these kinds of proposal into practice
Resumo:
In this work, the quantitative analysis of glucose, triglycerides and cholesterol (total and HDL) in both rat and human blood plasma was performed without any kind of pretreatment of samples, by using near infrared spectroscopy (NIR) combined with multivariate methods. For this purpose, different techniques and algorithms used to pre-process data, to select variables and to build multivariate regression models were compared between each other, such as partial least squares regression (PLS), non linear regression by artificial neural networks, interval partial least squares regression (iPLS), genetic algorithm (GA), successive projections algorithm (SPA), amongst others. Related to the determinations of rat blood plasma samples, the variables selection algorithms showed satisfactory results both for the correlation coefficients (R²) and for the values of root mean square error of prediction (RMSEP) for the three analytes, especially for triglycerides and cholesterol-HDL. The RMSEP values for glucose, triglycerides and cholesterol-HDL obtained through the best PLS model were 6.08, 16.07 e 2.03 mg dL-1, respectively. In the other case, for the determinations in human blood plasma, the predictions obtained by the PLS models provided unsatisfactory results with non linear tendency and presence of bias. Then, the ANN regression was applied as an alternative to PLS, considering its ability of modeling data from non linear systems. The root mean square error of monitoring (RMSEM) for glucose, triglycerides and total cholesterol, for the best ANN models, were 13.20, 10.31 e 12.35 mg dL-1, respectively. Statistical tests (F and t) suggest that NIR spectroscopy combined with multivariate regression methods (PLS and ANN) are capable to quantify the analytes (glucose, triglycerides and cholesterol) even when they are present in highly complex biological fluids, such as blood plasma
Resumo:
Uma equação de regressão múltipla MOS (da sigla em inglês para Model Output Statistics), para previsão da temperatura mínima diária do ar na cidade de Bauru, estado de São Paulo, é desenvolvida. A equação de regressão múltipla, obtida usando análise de regressão stepwise, tem quatro preditores, três do modelo numérico global do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) e um observacional da estação meteorológica do Instituto de Pesquisas Meteorológicas (IPMet), Bauru. Os preditores são prognósticos para 24 horas do modelo global, válidos para 00:00GMT, da temperatura em 1000hPa, vento meridional em 850hPa e umidade relativa em 1000hPa, e temperatura observada às 18:00GMT. Esses quatro preditores explicam, aproximadamente, 80% da variância total do preditando, com erro quadrático médio de 1,4°C, que é aproximadamente metade do desvio padrão da temperatura mínima diária do ar observada na estação do IPMet. Uma verificação da equação MOS com uma amostra independente de 47 casos mostra que a previsão não se deteriora significativamente quando o preditor observacional for desconsiderado. A equação MOS, com ou sem esse preditor, produz previsões com erro absoluto menor do que 1,5°C em 70% dos casos examinados. Este resultado encoraja a utilização da técnica MOS para previsão operacional da temperatura mínima e seu desenvolvimento para outros elementos do tempo e outras localidades.
Resumo:
The James-Stein estimator is a biased shrinkage estimator with uniformly smaller risk than the risk of the sample mean estimator for the mean of multivariate normal distribution, except in the one-dimensional or two-dimensional cases. In this work we have used more heuristic arguments and intensified the geometric treatment of the theory of James-Stein estimator. New type James-Stein shrinking estimators are proposed and the Mahalanobis metric used to address the James-Stein estimator. . To evaluate the performance of the estimator proposed, in relation to the sample mean estimator, we used the computer simulation by the Monte Carlo method by calculating the mean square error. The result indicates that the new estimator has better performance relative to the sample mean estimator.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Introduction: The use of stabilizer bracelet is a frequent treatment for movement disorders to strengthen muscles and adjust coordination. Still questions remain regarding the benefi t of using loads to decrease involuntary movements and the best load and placement. Objective: To measure the infl uence of the stabilizer bracelet on the kinematics and spatiotemporal parameters in planar movements performed by the upper limb. Method: One child, who has the spastic diplegy type of cerebral palsy with choreoathetoid component, and a control child without cerebral palsy, both female and 7 years old, were subjected to analysis of movements in relation to displacement, velocity, linear acceleration, and the calculation of mean square error (MSE) with and without use of stabilizer bracelet with loads of 25, 50, and 75% of the supported maximum load. Results: After comparing data between subjects, a difference was found between patient and control in all situations and variables. An inter-individual comparison using 25% of the maximum load showed the smallest difference with the NDE. Discussion and Conclusion: This therapeutic option is low cost, easy to apply, and does not signifi cantly interfere in the aesthetic of the individual. Therefore, physiotherapists may prescribe this for activities that require greater control of the upper limb because for the case studied the upper limb movement was more effi cient with the use of the stabilizer bracelet.