1000 resultados para Interpolação estatística
Resumo:
O presente trabalho relata um estudo sobre a aplicação de duas metodologias diferentes do processo ensino-aprendizagem da disciplina Estatística no curso de Formação de Psicologia da Faculdade de Humanidades Pedro II. O estudo empírico realizou-se no primeiro semestre letivo de 1984. Utilizou-se um plano de pesquisa quase-experimental, com o modelo pré-teste/pós-teste. Formaram-se dois grupos intactos. O primeiro grupo constava de 64 sujeitos e o segundo de 66 sujeitos. Foram aplicadas, respectivamente, a metodologia Renovadora, que tinha por objetivo a aprendizagem através da compreensão e da aplicabilidade de conceitos e princípios estatísticos, e a metodologia Tradicional que implicava na aprendizagem por memorização dos princípios e automatização na execução dos cálculos. Os resultados do tratamento estatístico, considerando-se o nível de significância de 0,05, evidenciou não haver diferença estatisticamente significativa entre as duas metodologias de ensino da disciplina Estatística, tanto no que se refere à atitude quanto no que se refere ao aproveitamento.
Resumo:
Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.
Resumo:
Com o objetivo de identificar oportunidades de arbitragem estatística no mercado de opções brasileiro, este trabalho utiliza o modelo de volatilidade incerta e o conceito de Hedging Estático, no apreçamento de um portfólio composto por diversas opções. São também incluídos os custos de transação relacionados a estruturação de um portfólio livre de risco, obtendo assim um modelo que pode ser facilmente implementado através da utilização do método de diferenças finitas explicito. Na aplicação do modelo ao mercado de opções sobre a ação preferencial da Petrobrás (PETR4), foi estabelecido um critério para estabelecer a frequência do ajuste do delta hedge do portfólio livre de risco de maneira a não incorrer em custos de transação elevados. Foi escolhido o período entre 19/05/08 e 20/01/14 para analisar o desempenho do modelo, selecionando-se em cada data de cálculo um conjunto de 11 opções de diferentes strikes e mesmo vencimento para compor o portfólio. O modelo apresentou um bom desempenho quando desconsiderados os custos de transação na apuração do resultado da estratégia de arbitragem, obtendo na maior parte dos casos resultados positivos. No entanto, ao incorporar os custos de transação, o desempenho obtido pelo modelo foi ruim, uma vez que na maior parte dos casos o resultado apresentado foi negativo.
Resumo:
O pesquisador da FGV/DAPP João Victor participou, durante o mês de Julho, do 21º SINAPE - Simpósio Nacional de Probabilidade e Estatística, em Natal, a principal reunião científica da comunidade estatística brasileira. Durante uma semana, o pesquisador da DAPP participou de palestras e minicursos e apresentou seu projeto sobre Ferramentas para Formatação e Verificação de Microdados de Pesquisas, sob orientação do atual presidente-eleito do International Statistical Institute, Pedro Luis do Nascimento Silva.
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
Este relatório tem como objetivos apresentar uma reflexão sobre a minha experiência profissional ao longo de nove anos de serviço como docente de Matemática e analisar o impacto de alguns instrumentos de avaliação na aprendizagem dos alunos no tema da Estatística. Para realizar esta investigação foi selecionada uma turma de um curso profissional, em que quase todos os alunos revelavam dificuldades de aprendizagem em Matemática. Neste estudo, optou-se por uma metodologia de natureza qualitativa de caráter interpretativo. Os instrumentos de avaliação usados na sala de aula e que foram alvo de análise neste estudo foram os seguintes: testes em duas fases, trabalhos escritos e uma apresentação oral. Com estes instrumentos foi possível identificar as principais dificuldades dos alunos. Assim, verificou-se que os alunos revelaram dificuldades em mobilizar os conceitos estatísticos para contextos reais, em usar conceitos e factos estatísticos como argumentos para fundamentar uma dada tomada de posição, em comunicar as suas ideias e também em assimilar alguns conceitos, como por exemplo, o desvio padrão. Ter usado diversos instrumentos de avaliação, contribuiu para que os alunos superassem algumas dessas dificuldades e também permitiu o desenvolvimento de várias capacidades e competências, como a capacidade para comunicar ideias ou opiniões oralmente ou por escrito; em usar a tecnologia para calcular medidas estatísticas ou usar modelos matemáticos que ajudou a interpretar a realidade. Também contribuiu para que os alunos se tornassem mais letrados estatisticamente e, desta forma, cidadãos mais informados e críticos, com maior capacidade para intervir no meio social.
Resumo:
In this work we analyze the skin bioimpedance statistical distribution. We focus on the study of two distinct samples: the statistics of impedance of several points in the skin of a single individual and the statistics over a population (many individuals) but in a single skin point. The impedance data was obtained from the literature (Pearson, 2007). Using the Shapiro-Wilk test and the assymmetry test we conclude that the impedance of a population is better described by an assymetric and non-normal distribution. On the other side, the data concerning the individual impedance seems to follow a normal distribution. We have performed a goodnes of fitting test and the better distribution to fit the data of a population is the log-normal distribution. It is interesting to note that our result for skin impedance is in simtony with body impedance from the literature of electrical engeneering. Our results have an impact over the statistical planning and modelling of skin impedance experiments. Special attention we should drive to the treatment of outliers in this kind of dataset. The results of this work are important in the general discussion of low impedance of points of acupuncture and also in the problem of skin biopotentials used in equipments like the Electrodermal Screen Tests.
Resumo:
A agricultura de precisão implica análise da variabilidade espacial de fatores de produção e a aplicação de insumos de forma localizada. Várias são as causas que condicionam a variabilidade espacial dos solos, sendo o relevo um dos fatores mais importantes. O presente estudo teve por objetivo analisar a variabilidade espacial dos atributos químicos do solo e a elaboração de mapas de necessidade de aplicação de insumos de forma localizada, em áreas com diferentes formas de relevo. Duas parcelas de 1 ha cada foram delimitadas em áreas com topografia côncava e convexa. Foram retiradas, em cada área, 242 amostras de solos em 121 pontos, nas profundidades de solo de 0,00-0,20 m e 0,20-0,40 m. Os resultados de análise química foram submetidos às análises da estatística descritiva, geoestatística e interpolação por krigagem. A área convexa apresentou maior variabilidade espacial do solo em relação a área côncava. A adoção da agricultura de precisão possibilitou economia de aproximadamente 25 kg ha-1 de P2O5 na área côncava.
Resumo:
O objetivo do presente trabalho foi avaliar a variabilidade espacial de atributos de Latossolos sob cultivo de cana-de-açúcar na região de Jaboticabal (SP). Foram feitas amostragens do solo a intervalos regulares de 50 m, em uma área de 90 ha, nas profundidades de 0,00-0,20 e 0,60-0,80 m para determinação de pH, CTC, V % e teores de matéria orgânica, P, K+, Ca2+, Mg2+, H + Al e argila. Os dados foram submetidos às análises: estatística descritiva, geoestatística e interpolação por krigagem. Os alcances de dependência espacial para os atributos químicos do solo e teores de argila na camada de 0,60-0,80 m de profundidade foram menores, quando comparados àqueles referentes à camada de 0,00-0,20 m. Estes resultados demonstraram maior descontinuidade na distribuição espacial dos atributos do solo na camada de 0,60-0,80 m de profundidade dos Latossolos, indicando que essa classe de solos não apresentou homogeneidade de seus atributos como conceituadamente a ela foi atribuída. O manejo no solo alterou a dependência espacial dos atributos do solo na camada superficial de forma a diminuir a variabilidade espacial dos atributos químicos do solo em relação à camada mais profunda. A investigação da variabilidade espacial de atributos químicos e do teor de argila da camada superficial e subsuperficial dos solos proporcionou condições para a definição de zonas homogêneas de manejo, o que permite a adoção do sistema de agricultura de precisão.
Resumo:
Estudos regionais mais detalhados, utilizando modelos de paisagem e geoestatística, têm demonstrado que, em áreas consideradas homogêneas, sob uma única classe de solo, existe dependência espacial de atributos granulométricos. Visando a avaliar a variabilidade espacial de atributos granulométricos em Latossolo Vermelho eutroférrico, foram feitas amostragens do solo em intervalos regulares de 50 m, em forma de malha, totalizando 306 pontos de amostragem. Foram coletadas amostras nas profundidades de 0-0,2 m e 0,6-0,8 m para a determinação da argila, silte, areia total (AT), areia grossa (AG), areia média (AM), areia fina (AF) e areia muito fina (AMF). Os dados foram submetidos à análise estatística descritiva, geoestatística e interpolação por krigagem. Os valores do coeficiente de variação apresentaram-se baixos para argila, médios para silte, AT, AF, AM e AMF e altos para AG. Observou-se ocorrência de dependência espacial para todas as variáveis com grau moderado de dependência espacial, com os maiores alcances ocorrendo na profundidade de 0-0,2 m. Os latossolos, apesar de serem homogêneos, mesmo em áreas de mesma classe de solo e manejo, apresentaram variabilidade diferenciada para os atributos granulométricos.
Resumo:
As técnicas de aplicação localizada e em taxas variadas de insumos agrícolas com auxílio da geoestatística têm sido umas das áreas de concentração de esforços recentes em pesquisas e desenvolvimento ligado à agricultura de precisão. Portanto, o trabalho teve como objetivo avaliar a necessidade de aplicação de calcário e fósforo com base no comportamento espacial de atributos químicos do solo. Foram feitas amostragens do solo a intervalos regulares de 50 m, em uma área de 42 ha, na profundidade de 0,0-0,2 m para determinação do pH, Ca, Mg, P, V% e cálculo da necessidade de calagem e superfosfato triplo. Os dados foram submetidos às análises da estatística descritiva, geoestatística e interpolação por krigagem. O uso da técnica de geoestatística possibilitou uma precisa descrição dos atributos do solo o que permitiu a definição de zonas de manejo, indicando os locais de ocorrência de déficit e excesso. A variabilidade espacial dos atributos químicos do solo, possibilita a recomendação de doses de calcário e fósforo com taxas variadas, proporcionando economia e maior eficiência na aplicação.
Resumo:
The problems of combinatory optimization have involved a large number of researchers in search of approximative solutions for them, since it is generally accepted that they are unsolvable in polynomial time. Initially, these solutions were focused on heuristics. Currently, metaheuristics are used more for this task, especially those based on evolutionary algorithms. The two main contributions of this work are: the creation of what is called an -Operon- heuristic, for the construction of the information chains necessary for the implementation of transgenetic (evolutionary) algorithms, mainly using statistical methodology - the Cluster Analysis and the Principal Component Analysis; and the utilization of statistical analyses that are adequate for the evaluation of the performance of the algorithms that are developed to solve these problems. The aim of the Operon is to construct good quality dynamic information chains to promote an -intelligent- search in the space of solutions. The Traveling Salesman Problem (TSP) is intended for applications based on a transgenetic algorithmic known as ProtoG. A strategy is also proposed for the renovation of part of the chromosome population indicated by adopting a minimum limit in the coefficient of variation of the adequation function of the individuals, with calculations based on the population. Statistical methodology is used for the evaluation of the performance of four algorithms, as follows: the proposed ProtoG, two memetic algorithms and a Simulated Annealing algorithm. Three performance analyses of these algorithms are proposed. The first is accomplished through the Logistic Regression, based on the probability of finding an optimal solution for a TSP instance by the algorithm being tested. The second is accomplished through Survival Analysis, based on a probability of the time observed for its execution until an optimal solution is achieved. The third is accomplished by means of a non-parametric Analysis of Variance, considering the Percent Error of the Solution (PES) obtained by the percentage in which the solution found exceeds the best solution available in the literature. Six experiments have been conducted applied to sixty-one instances of Euclidean TSP with sizes of up to 1,655 cities. The first two experiments deal with the adjustments of four parameters used in the ProtoG algorithm in an attempt to improve its performance. The last four have been undertaken to evaluate the performance of the ProtoG in comparison to the three algorithms adopted. For these sixty-one instances, it has been concluded on the grounds of statistical tests that there is evidence that the ProtoG performs better than these three algorithms in fifty instances. In addition, for the thirty-six instances considered in the last three trials in which the performance of the algorithms was evaluated through PES, it was observed that the PES average obtained with the ProtoG was less than 1% in almost half of these instances, having reached the greatest average for one instance of 1,173 cities, with an PES average equal to 3.52%. Therefore, the ProtoG can be considered a competitive algorithm for solving the TSP, since it is not rare in the literature find PESs averages greater than 10% to be reported for instances of this size.
Resumo:
The vehicles are the main mobile sources of carbon monoxide (CO) and unburned hydrocarbons (HC) released into the atmosphere. In the last years the increment of the fleet of vehicles in the municipal district of Natal-RN it is contributing to the increase of the emissions of those pollutants. The study consisted of a statistical analysis of the emissions of CO and HC of a composed sample for 384 vehicles with mechanization Gasoline/CNG or Alcohol/Gasoline/CNG of the municipal district of Natal-RN. The tests were accomplished in vehicles submitted to Vehicular Safety's Inspection, in the facilities of INSPETRANS, Organism of Vehicular Inspection. An partial gases analyzer allowed to measure, for each vehicle, the levels of CO and HC in two conditions of rotation of the motor (900 and 2500 rpm). The statistical analysis accomplished through the STATISTICA software revealed a sensitive reduction in the efficiency of the converters catalytic after 6 years of use with emission average it is of 0,78% of CO and 156 (ppm) of HC, Which represents approximately 4 (four) times the amount of CO and the double of HC in comparison with the newest vehicles. The result of a Student s t-test, suggests strongly that the average of the emissions of HC (152 ppm), at 900 rpm, is 40% larger than at 2500 rpm, for the motor without load. This result reveals that the efficiency of the catalytic conversion is limited kinetically in low engine speeds. The Study also ends that when comparing the emissions of CO and HC considering the influence of the fuels, it was verified that although the emissions of CO starting from CNG are 62% smaller than arising from the gasoline, there are not significant differences among the emissions of HC originating from of CNG and of the gasoline. In synthesis, the results place the current criteria of vehicular inspection, for exhaust gases, in doubt, leading the creation of emission limits of pollutant more rigorous, because the efficiency of the converters catalytic is sensibly reduced starting from 6 years of use. It is also raised the possibility of modifications in the test conditions adopted by the current norms, specifically in the speed engine, have seen that in the condition without load the largest emission indexes were registered in slow march. That fact that allows to suggest the dismissal of the tests in high speed engine, reducing the time of inspection in half and generating economy of fuel