912 resultados para Previsão Estatística
Resumo:
A capacidade de adaptação e rapidez de decisão, distinguem as empresas que melhor conseguem competir e crescer no mercado global. Para atuar rapidamente, as organizações precisam de sistemas de informação cada vez mais eficazes, surgindo recentemente uma nova função considerada fundamental para as empresas, que é a de Cientista de Dados. É neste contexto e para responder aos desafios atuais e futuros, que surgem sistemas de informação cada vez mais avançados, suportados por modelos de análise e visualização estatística. Este trabalho consiste em criar uma metodologia de desenvolvimento de modelos de previsão de incumprimento e perfil do consumidor, aplicado a cartões de crédito, com base numa exposição de análise comportamental, utilizando técnicas de análise de sobrevivência. São definidas técnicas de tratamento dos dados recolhidos, estimado modelo não-paramétrico de Kaplan-Meier e vários modelos de Cox de riscos proporcionais. Com recurso à curva ROC, dependente do tempo, à AUC e ao índice de Gini, conclui-se que o modelo final apresenta um desempenho positivo para identificar os clientes em situação de incumprimento ou com propensão a incumprir.
Resumo:
A presente dissertação visa uma aplicação de séries temporais, na modelação do índice financeiro FTSE100. Com base na série de retornos, foram estudadas a estacionaridade através do teste Phillips-Perron, a normalidade pelo Teste Jarque-Bera, a independência analisada pela função de autocorrelação e pelo teste de Ljung-Box, e utilizados modelos GARCH, com a finalidade de modelar e prever a variância condicional (volatilidade) da série financeira em estudo. As séries temporais financeiras apresentam características peculiares, revelando períodos mais voláteis do que outros. Esses períodos encontram-se distribuídos em clusters, sugerindo um grau de dependência no tempo. Atendendo à presença de tais grupos de volatilidade (não linearidade), torna-se necessário o recurso a modelos heterocedásticos condicionais, isto é, modelos que consideram que a variância condicional de uma série temporal não é constante e dependente do tempo. Face à grande variabilidade das séries temporais financeiras ao longo do tempo, os modelos ARCH (Engle, 1982) e a sua generalização GARCH (Bollerslev, 1986) revelam-se os mais adequados para o estudo da volatilidade. Em particular, estes modelos não lineares apresentam uma variância condicional aleatória, sendo possível, através do seu estudo, estimar e prever a volatilidade futura da série. Por fim, é apresentado o estudo empírico que se baseia numa proposta de modelação e previsão de um conjunto de dados reais do índice financeiro FTSE100.
Resumo:
Este estudo procurou, por um lado, caracterizar as bibliotecas das Universidades públicas portuguesas em termos de recolha de dados estatísticos, seu tratamento e posterior utilização na gestão e tomada de decisão nessas bibliotecas. Por outro lado, procurou auscultar a satisfação do staff e a satisfação dos utilizadores dessas mesmas bibliotecas. Além desta competente mais descritiva, este estudo incluiu também uma componente explicativa baseada num modelo teórico que sugere, primeiramente, a existência de uma relação entre a utilização de informação estatística (IE) na gestão e tomada de decisão e a satisfação do staff e a satisfação dos utilizadores. E, seguidamente, a presença de uma relação de interdependência entre o grau de satisfação do staff e o grau de satisfação dos utilizadores, tal como é sugerido pela teoria da cadeia de lucro na prestação de serviços (Heskett et al., 1994). Foi possível apurar a existência de uma cultura de recolha de dados estatísticos, tratamento e utilização dessa informação para a gestão e tomada de decisão entre as bibliotecas participantes. O estudo também revela que a recolha e utilização de IE tem um impacto positivo na satisfação dos utilizadores, mas afecta negativamente a satisfação do staff com o ambiente de trabalho. / ABSTRACT; This study characterizes the Portuguesa Higher Education Libraries with respect to the collection of data, its statistical analysis and subsequent use in the management and decision making of these Libraries. ln addition, the study also tried to obtain information on the level of satisfaction of staff and users in the same Libraries. Besides this descriptive component, this study includes an explicative component based on a theoretical model. This model first suggests the existence of a positive relationship between the use of statistical information in management and decision making in a Library and the level of satisfaction of users and staff. A second prediction of the model is the existence of an interdependence relationship between the level of satisfaction of the staff and the level of satisfaction of the users, as it is suggesting by the service-profit-chain theory (Heskett et al., 1994). The results reveal the existence of a culture of data collection, statistical analysis of the data and subsequent use in management and decision making among the participant libraries. The study also shows that the collection and use of statistical information has a positive impact on the level of satisfaction of the users but a negative impact on the level of satisfaction of staff regarding the job environment.
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Análise de volatilidade, integração de preços e previsibilidade para o mercado brasileiro de camarão
Resumo:
The present paper has the purpose of investigate the dynamics of the volatility structure in the shrimp prices in the Brazilian fish market. Therefore, a description of the initial aspects of the shrimp price series was made. From this information, statistics tests were made and selected univariate models to be price predictors. Then, it was verified the existence of relationship of long-term equilibrium between the Brazilian and American imported shrimp and if, confirmed the relationship, whether or not there is a causal link between these assets, considering that the two countries had presented trade relations over the years. It is presented as an exploratory research of applied nature with quantitative approach. The database was collected through direct contact with the Companhia de Entrepostos e Armazéns Gerais de São Paulo (CEAGESP) and on the official website of American import, National Marine Fisheries Service - National Oceanic and Atmospheric Administration (NMFS- NOAA). The results showed that the great variability in the active price is directly related with the gain and loss of the market agents. The price series presents a strong seasonal and biannual effect. The average structure of price of shrimp in the last 12 years was R$ 11.58 and external factors besides the production and marketing (U.S. antidumping, floods and pathologies) strongly affected the prices. Among the tested models for predicting prices of shrimp, four were selected, which through the prediction methodologies of one step forward of horizon 12, proved to be statistically more robust. It was found that there is weak evidence of long-term equilibrium between the Brazilian and American shrimp, where equivalently, was not found a causal link between them. We concluded that the dynamic pricing of commodity shrimp is strongly influenced by external productive factors and that these phenomena cause seasonal effects in the prices. There is no relationship of long-term stability between the Brazilian and American shrimp prices, but it is known that Brazil imports USA production inputs, which somehow shows some dependence productive. To the market agents, the risk of interferences of the external prices cointegrated to Brazilian is practically inexistent. Through statistical modeling is possible to minimize the risk and uncertainty embedded in the fish market, thus, the sales and marketing strategies for the Brazilian shrimp can be consolidated and widespread
Resumo:
O presente relatório, inserido no Mestrado em Gestão do Território, Área de Especialização em Deteção Remota e Sistemas de Informação Geográfica, lecionado pelo Departamento de Geografia e Planeamento Regional da Faculdade de Ciências Sociais e Humanas da Universidade Nova de Lisboa, pretende descrever o trabalho desenvolvido pelo mestrando enquanto estagiário no Observatório do Tráfico de Seres Humanos (OTSH). O relatório está estruturado em três capítulos distintos. No primeiro capítulo é realizada uma abordagem teórica sobre o Tráfico de Seres Humanos e a distinção entre o mesmo com o Auxílio à Imigração Ilegal. Neste, é também feita uma pequena referência à problemática dos novos fluxos de refugiados/migrantes que, no momento da realização do mesmo, constituem uma questão bastante complexa sobretudo ao nível europeu. No segundo capítulo é realizada uma caracterização da área de estudo, assim como a descrição dos dados utilizados e a metodologia aplicada no mesmo. No terceiro capítulo são apresentados os resultados finais do estudo e a cartografia de síntese que sustenta os mesmos. Para a realização deste estudo recorreu-se a uma análise multicritério em SIG para prever a localização de áreas de maior suscetibilidade de ocorrência de novos casos relativos ao crime do tráfico de seres humanos para exploração laboral na agricultura, na região do Alentejo (distritos de Beja, Évora e Portalegre), através do recurso a dados estatísticos disponibilizados tanto pelo OTSH, como por outras entidades. A metodologia apresentada integra um SIG baseado num modelo raster com o Analytical Hierarchy Process (AHP). Através da realização deste estudo, a importância dos SIG como ferramenta no auxílio ao processo de tomada de decisão, pôde ser testada, conjuntamente com o processo metodológico AHP, através dos resultados apresentados. Com um possível desenvolvimento deste modelo analítico, pretende-se que o mesmo seja adaptável a outras regiões e em última instância, outros tipos de exploração e/ou tráfico.
Resumo:
Conferência plenária apresentada em 20 de Maio de 2016 no Fórum ALABE 2016
Resumo:
Dissertação de Mestrado, Direção e Gestão Hoteleira, Escola Superior de Gestão, Hotelaria e Turismo, Universidade do Algarve, 2016
Resumo:
Mestrado em Métodos Matemáticos para Gestão de Empresas
Resumo:
Waterflooding is a technique largely applied in the oil industry. The injected water displaces oil to the producer wells and avoid reservoir pressure decline. However, suspended particles in the injected water may cause plugging of pore throats causing formation damage (permeability reduction) and injectivity decline during waterflooding. When injectivity decline occurs it is necessary to increase the injection pressure in order to maintain water flow injection. Therefore, a reliable prediction of injectivity decline is essential in waterflooding projects. In this dissertation, a simulator based on the traditional porous medium filtration model (including deep bed filtration and external filter cake formation) was developed and applied to predict injectivity decline in perforated wells (this prediction was made from history data). Experimental modeling and injectivity decline in open-hole wells is also discussed. The injectivity of modeling showed good agreement with field data, which can be used to support plan stimulation injection wells
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Resumo:
Introdução: A perda transitória da consciência e tónus postural seguido de rápida recuperação é definida como síncope. Tem sido dada atenção a uma síncope de origem central com descida da pressão sistémica conhecida por síncope vasovagal (SVV). Objetivos: A análise da variabilidade da frequência cardíaca (HRV) é uma das principais estratégias para estudar a SVV através de protocolos padrão (por exemplo tilt test). O principal objetivo deste trabalho é compreender a importância relativa de diversas variáveis, tais como pressão arterial diastólica e sistólica, (dBP) e (sBP), volume sistólico (SV) e resistência periférica total (TPR) na HRV. Métodos: Foram usados modelos estatísticos mistos para modelar o comportamento das variáveis acima descritas na HRV. Analisaram-se mais de mil e quinhentas observações de quatro pacientes com SVV, previamente testados com análise espectral clássica para a fase basal (LF/HF=3.01) e fases de tilt (LF/HF=0.64), indicando uma predominância vagal no período tilt. Resultados: O modelo 1 revelou o papel importante da dBP e uma baixa influência de SV, na fase de tilt, relativos à HRV. No modelo 2 a TPR revelou uma baixa influência na HRV na fase de tilt entre os pacientes. Conclusões: Verificou-se que a HRV é influenciada por um conjunto de variáveis fisiológicas, cuja contribuição individual pode ser usada para compreender as flutuações cardíacas. O uso de modelos estatísticos salientou a importância de estudar o papel da dBP e SV na SVV.
Modelos estocásticos de crescimento individual e desenvolvimento de software de estimação e previsão
Resumo:
Os modelos de crescimento individual são geralmente adaptações de modelos de crescimento de populações. Inicialmente estes modelos eram apenas determinísticos, isto é, não incorporavam as flutuações aleatórias do ambiente. Com o desenvolvimento da teoria do cálculo estocástico podemos adicionar um termo estocástico, que representa a aleatoriedade ambiental que influencia o processo em estudo. Actualmente, o estudo do crescimento individual em ambiente aleatório é cada vez mais importante, não apenas pela vertente financeira, mas também devido às suas aplicações nas áreas da saúde e da pecuária, entre outras. Problemas como o ajustamento de modelos de crescimento individual, estimação de parâmetros e previsão de tamanhos futuros são tratados neste trabalho. São apresentadas novas aplicações do modelo estocástico monomolecular generalizado e um novo software de aplicação deste e de outros modelos. ABSTRACT: Individual growth models are usually adaptations of growth population models. Initially these models were only deterministic, that is, they did not incorporate the random fluctuations of the environment. With the development of the theory of stochastic calculus, we can add a stochastic term that represents the random environmental influences in the process under study. Currently, the study of individual growth in a random environment is increasingly important, not only by the financial scope but also because of its applications in health care and livestock production, among others. Problems such as adjustment of an individual growth model, estimation of parameters and prediction of future sizes are treated in this work. New applications of the generalized stochastic monomolecular model and a new software applied to this and other models are presented.