959 resultados para Métodos Estatísticos
Resumo:
Enquadra-se o aquífero de Ourém no Sinclinal de Ourém e na Bacia Lusitaniana. Propõe-se um modelo conceptual do aquífero de Ourém que tem em consideração a cota da base e do topo e a espessura da formação geológica que o constitui. Estabelece-se um paralelo entre os Membros da Formação da Figueira da Foz e as características hidrogeológicas do aquífero. Avalia-se o regime de exploração por métodos estatísticos robustos, de onde se concluiu que a captação de água desregulada tem levado a uma descida constante dos níveis piezométricos, atingindo em algumas áreas os 7 cm/mês, independentemente da precipitação anual nos últimos anos. Uma campanha de monitorização definiu o sentido NW-SE como o sentido preferencial de fluxo e a área NW do aquífero de Ourém como a área preferencial de recarga. Analisam-se qualitativamente as condições de fronteira do aquífero. ABSTRACT: A tridimensional conceptual model of the Ourém aquifer is defined, considering its top and bottom. The thickness of Figueira da Foz geological formation was calculated. A parallel between the Members of Figueira da Foz formation and hydrogeological characteristics of the aquifer is established. A robust statistical analysis concludes that the unregulated water abstraction of aquifer has led to a constant decrease of the piezometric levels. ln some areas the decreasing achieves 7 cm/month, independently of the annual rainfall. A piezometric monitoring campaign defines the NW-SE direction inside the preferential flow direction of the aquifer and the area NW of aquifer as the preferred aquifer recharge area. The aquifer boundary conditions are qualitatively evaluated.
Resumo:
O gerenciamento de riscos climáticos requer informação sobre estados futuros de variáveis climáticas, geralmente representada por funções de distribuição de probabilidade acumulada (FDPA, P(Y?y) ou por sua funções complementares (P(Y>y)), ditas funções probabilidade de exceder (FPE). Uma variedade de métodos estatísticos tem sido utilizada para estimação de FPE, incluindo, modelos de regressão linear múltipla, regressão logística e métodos não paramétricos (MAIA et al, 2007; LO et al, 2008). Apesar de parecer intuitivo que a incerteza associada às estimativas das FPE é fundamental para os tomadores de decisão, esse tipo de informação raramente é fornecido. Modelos estatísticos de previsão baseados em séries históricas da variável de interesse (chuva, temperatura) e de preditores derivados de estados do oceano e da atmosfera (índices climáticos tais como: temperaturas da superfície do mar ? TSM, índice de oscilação sul, IOS, El Nino/Oscilação Sul - ENSO) se constituem em alternativas promissoras para auxílio às tomada de decisão, em escalas locais e regionais. O uso de tais indicadores permite incorporar mudanças de padrão derivadas de mudanças climáticas em modelos estatísticos que utilizam informação histórica. Neste trabalho, mostramos como o Modelo de Regressão de Cox (MRC; COX, 1972), tradicionalmente utilizado para modelagem de tempos de falha, em investigações na área médica e em ciências sociais, pode ser de grande utilidade para avaliação probabilística de riscos climáticos, mesmo para variáveis que não representam tempos de falha tais como chuva, produtividade de culturas, lucros, entre outras. O MRC pode ser utilizado para avaliar a influência de preditores (índices climáticos) sobre riscos de interesse (representados pelas FPE), estimar FPE para combinações específicas de preditores e incertezas associadas além de fornecer informação sobre riscos relativos, de grande valor para tomadores de decisão. Apresentamos dois estudos de caso nos quais o Modelo de Cox foi usado para investigar: a) o efeito do IOS e de um índice derivado de TSM do Pacífico sobre o início da estação chuvosa em Cairns (Austrália) e b) a influência o índice Nino 3.4, derivado de estados da TSM no Pacífico Equatorial sobre o chuva acumulada no período de Março a Junho em Limoeiro do Norte (Ceará, Brasil). O objetivo da apresentação desses estudos é meramente didático, para demonstrar o potencial do método proposto como ferramenta de auxílio à tomada de decisão.
Resumo:
Métodos estatísticos conhecidos como análise de sobrevivência, são comumente utilizados em medicina, ciências sociais e engenharia, em estudos onde a variável-resposta de interesse é o tempo até ocorrência de um evento (morte, divórcio, falha de um equipamento). Esses métodos permitem a estimação de curvas ditas funções de sobrevivência, que representam a probabilidade de ocorrência de um evento num tempo superior a t (Prob Y>t), para diferentes valores de t (KALBFLEISH e PRENTICE 1980; ALLISON, 1995; COLOSIMO e GIOLO, 2006). Na pesquisa agrícola, informações sobre eventos fenológicos, mensuradas em escala temporal (ex. tempo até o florescimento, tempo até a colheita), são fundamentais para o manejo eficiente da cultura. Apesar do seu uso generalizado nas áreas anteriormente citadas, a análise de sobrevivência ainda é pouco utilizada em estudos fenológicos (GIENAPP; HEMERIK; VISSER, 2005). A análise de sobrevivência apresenta uma série de vantagens em relação às abordagens tradicionais baseadas na duração média de estádios fenológicos, entre as quais: a) permite comparar o padrão de ocorrência do evento fenológico de interesse (floração, maturação) ao longo do tempo; b) possiblita estimar probabilidade de ocorrência de eventos em intervalos específicos, importantes para o planejamento de atividades de manejo ou comercialização; c) fornece informações sobre percentis (ex. data em que 50% das plantas floresceram, data em que 90% dos cachos atingiram o ponto de colheita); d) permite avaliar o efeito de tratamentos sobre as referidas medidas e e) não requerem os pressupostos de homogeneidade de variâncias nem normalidade.Neste trabalho apresentamos e discutimos o uso de métodos não paramétricos de análise de sobrevivência em estudos de fenologia de fruteiras, utilizando como exemplo, um estudo sobre o efeito de diferentes tipos de adubos minerais e orgânicos sobre aspectos fenológicos da bananeira.
Resumo:
Muitos experimentos tem sido analisados por métodos estatísticos inadequados. O uso não criterioso destes métodos, sem o devido cuidado ou sem considerar outras possibilidades, pode reduzir o valor das discussões, conclusões e o próprio valor da pesquisa. Há uma grande gama de tipos possíveis de abordagem estatística dos dados de pesquisa, cada qual atingindo uma finalidade. Por isso, o procedimento estatístico deve ser escolhido criteriosamente. Se o objetivo de um trabalho e estimar a magnitude de um efeito, então a analise usada deve estimá-la: não basta neste caso, apenas explicar qual dos resultados diferiram significativamente. Não obstante, se o objetivo da pesquisa é determinar um ponto, então a análise deve faze-lo. Neste caso, não e suficiente verificar somente o comportamento dos dados. A escolha de um modelo de regressão e uma ponderação na qual deve ser considerados, a adequação ao fenômeno estudado, o ajuste matemático obtido e a sua aplicabilidade. As propriedades do modelo escolhido devem ser justificáveis, tanto logicamente quanto biologicamente. Portanto, a análise deve ser sensata, lógica e apropriada as questões que procura-se responder.
Resumo:
Tese de doutoramento, Estatística e Investigação Operacional (Probabilidades e Estatística), Universidade de Lisboa, Faculdade de Ciências, 2014
Resumo:
Os painéis de gráficos estatísticos conhecidos como dashboards são utilizados comumente naárea de Business Intelligence (BI) para a visualização de grandes sistemas organizados de dados. A presente dissertação propõe embasar o projeto de dashboards pelas teorias de Jacques Bertin, formuladas nas obras Sémiologie Graphique e La Graphique et le Traitement Graphique de linformation. Considerando este referencial, e ainda parâmetros do design de informação e da visualização de dados, foram desenvolvidos dashboards que apresentam dados sobre a política de reserva de vagas da Universidade do Estado do Rio de Janeiro, sistematizados pelo projeto de BI dessa instituição. O objetivo foi não apenas o de atender aos requisitos convencionais de um dashboard, mas sobretudo o de apresentar outras perspectivas informativas. Nesse sentido, investigam-se as especificidades dos métodos de Bertin e sua expansão para o domínio dos sistemas interativos.
Resumo:
A identificação antecipada do comportamento da demanda de veículos novos na extremidade da rede de distribuição é imprescindível para implementação de um sistema de produção puxada pela demanda. Previsões confiáveis, obtidas nas concessionárias, conferem aos fabricantes maior sensibilidade diante das peculariedades locais da demanda e reduzem as incertezas da produção em larga escala. A obtenção de previsões consistentes requer, porém, o emprego de métodos formais. Os profissionais responsáveis pela elaboração de previsões nas concessionárias desconhecem, em grande parte, os métodos de forecasting abordados na literatura. Essa dissertação visa o desenvolvimento de um sistema formal para elaboração de previsões de demanda de veículos novos em concessionárias. Em estudo de caso, conduzido em uma concessionária da marca Volkswagen, modelos estatísticos de Box-Jenkins e de suavização exponencial são aplicados para gerar previsões quantitativas das vendas de veículos novos. Previsões qualitativas, correspondentes ao julgamento de especialistas no segmento, são formalizadas através do método Delphi. Finalmente, as previsões quantitativas e qualitativas são combinadas matematicamente e comparadas. Tal comparação demonstra que as vantagens inerentes a cada método podem ser absorvidas para proporcionar previsões mais acuradas.
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
In this work, the quantitative analysis of glucose, triglycerides and cholesterol (total and HDL) in both rat and human blood plasma was performed without any kind of pretreatment of samples, by using near infrared spectroscopy (NIR) combined with multivariate methods. For this purpose, different techniques and algorithms used to pre-process data, to select variables and to build multivariate regression models were compared between each other, such as partial least squares regression (PLS), non linear regression by artificial neural networks, interval partial least squares regression (iPLS), genetic algorithm (GA), successive projections algorithm (SPA), amongst others. Related to the determinations of rat blood plasma samples, the variables selection algorithms showed satisfactory results both for the correlation coefficients (R²) and for the values of root mean square error of prediction (RMSEP) for the three analytes, especially for triglycerides and cholesterol-HDL. The RMSEP values for glucose, triglycerides and cholesterol-HDL obtained through the best PLS model were 6.08, 16.07 e 2.03 mg dL-1, respectively. In the other case, for the determinations in human blood plasma, the predictions obtained by the PLS models provided unsatisfactory results with non linear tendency and presence of bias. Then, the ANN regression was applied as an alternative to PLS, considering its ability of modeling data from non linear systems. The root mean square error of monitoring (RMSEM) for glucose, triglycerides and total cholesterol, for the best ANN models, were 13.20, 10.31 e 12.35 mg dL-1, respectively. Statistical tests (F and t) suggest that NIR spectroscopy combined with multivariate regression methods (PLS and ANN) are capable to quantify the analytes (glucose, triglycerides and cholesterol) even when they are present in highly complex biological fluids, such as blood plasma
Resumo:
OBJETIVO: Avaliar a evolução metodológica e do delineamento estatístico nas publicações da Revista Brasileira de Ginecologia e Obstetrícia (RBGO) a partir da resolução 196/96. MÉTODOS: Uma revisão de 133 artigos publicados nos anos de 1999 (65) e 2009 (68) foi realizada por dois revisores independentes com formação em epidemiologia clínica e metodologia da pesquisa científica. Foram incluídos todos os artigos clínicos originais, séries e relatos de casos, sendo excluídos os editoriais, as cartas ao editor, os artigos de revisão sistemática, os trabalhos experimentais, artigos de opinião, além dos resumos de teses e dissertações. Características relacionadas com a qualidade metodológica dos estudos foram analisadas por artigo, por meio de check-list que avaliou dois critérios: aspectos metodológicos e procedimentos estatísticos. Utilizou-se a estatística descritiva e o teste do χ2 para comparação entre os anos. RESULTADOS: Observa-se que houve diferença entre os anos de 1999 e 2009 no tocante ao desenho dos estudos e ao delineamento estatístico, demonstrando maior rigor nos respectivos procedimentos com o uso de testes mais robustos, relativamente, entre os anos de 1999 e 2009. CONCLUSÕES: Na RBGO, observou-se evolução metodológica dos artigos publicados entre os anos de 1999 e 2009 e aprofundamento nas análises estatísticas com o uso de testes mais sofisticados, como o uso mais frequente das análises de regressão e da análise multinível, que são técnicas primordiais na produção do conhecimento e planejamento de intervenções em saúde. Isso pode resultar em menos erros de interpretações.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The time series analysis has played an increasingly important role in weather and climate studies. The success of these studies depends crucially on the knowledge of the quality of climate data such as, for instance, air temperature and rainfall data. For this reason, one of the main challenges for the researchers in this field is to obtain homogeneous series. A time series of climate data is considered homogeneous when the values of the observed data can change only due to climatic factors, i.e., without any interference from external non-climatic factors. Such non-climatic factors may produce undesirable effects in the time series, as unrealistic homogeneity breaks, trends and jumps. In the present work it was investigated climatic time series for the city of Natal, RN, namely air temperature and rainfall time series, for the period spanning from 1961 to 2012. The main purpose was to carry out an analysis in order to check the occurrence of homogeneity breaks or trends in the series under investigation. To this purpose, it was applied some basic statistical procedures, such as normality and independence tests. The occurrence of trends was investigated by linear regression analysis, as well as by the Spearman and Mann-Kendall tests. The homogeneity was investigated by the SNHT, as well as by the Easterling-Peterson and Mann-Whitney-Pettit tests. Analyzes with respect to normality showed divergence in their results. The von Neumann ratio test showed that in the case of the air temperature series the data are not independent and identically distributed (iid), whereas for the rainfall series the data are iid. According to the applied testings, both series display trends. The mean air temperature series displays an increasing trend, whereas the rainfall series shows an decreasing trend. Finally, the homogeneity tests revealed that all series under investigations present inhomogeneities, although they breaks depend on the applied test. In summary, the results showed that the chosen techniques may be applied in order to verify how well the studied time series are characterized. Therefore, these results should be used as a guide for further investigations about the statistical climatology of Natal or even of any other place.
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Geociências, 2016.