1000 resultados para estatística
Resumo:
O presente trabalho relata um estudo sobre a aplicação de duas metodologias diferentes do processo ensino-aprendizagem da disciplina Estatística no curso de Formação de Psicologia da Faculdade de Humanidades Pedro II. O estudo empírico realizou-se no primeiro semestre letivo de 1984. Utilizou-se um plano de pesquisa quase-experimental, com o modelo pré-teste/pós-teste. Formaram-se dois grupos intactos. O primeiro grupo constava de 64 sujeitos e o segundo de 66 sujeitos. Foram aplicadas, respectivamente, a metodologia Renovadora, que tinha por objetivo a aprendizagem através da compreensão e da aplicabilidade de conceitos e princípios estatísticos, e a metodologia Tradicional que implicava na aprendizagem por memorização dos princípios e automatização na execução dos cálculos. Os resultados do tratamento estatístico, considerando-se o nível de significância de 0,05, evidenciou não haver diferença estatisticamente significativa entre as duas metodologias de ensino da disciplina Estatística, tanto no que se refere à atitude quanto no que se refere ao aproveitamento.
Resumo:
Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.
Resumo:
Com o objetivo de identificar oportunidades de arbitragem estatística no mercado de opções brasileiro, este trabalho utiliza o modelo de volatilidade incerta e o conceito de Hedging Estático, no apreçamento de um portfólio composto por diversas opções. São também incluídos os custos de transação relacionados a estruturação de um portfólio livre de risco, obtendo assim um modelo que pode ser facilmente implementado através da utilização do método de diferenças finitas explicito. Na aplicação do modelo ao mercado de opções sobre a ação preferencial da Petrobrás (PETR4), foi estabelecido um critério para estabelecer a frequência do ajuste do delta hedge do portfólio livre de risco de maneira a não incorrer em custos de transação elevados. Foi escolhido o período entre 19/05/08 e 20/01/14 para analisar o desempenho do modelo, selecionando-se em cada data de cálculo um conjunto de 11 opções de diferentes strikes e mesmo vencimento para compor o portfólio. O modelo apresentou um bom desempenho quando desconsiderados os custos de transação na apuração do resultado da estratégia de arbitragem, obtendo na maior parte dos casos resultados positivos. No entanto, ao incorporar os custos de transação, o desempenho obtido pelo modelo foi ruim, uma vez que na maior parte dos casos o resultado apresentado foi negativo.
Resumo:
O pesquisador da FGV/DAPP João Victor participou, durante o mês de Julho, do 21º SINAPE - Simpósio Nacional de Probabilidade e Estatística, em Natal, a principal reunião científica da comunidade estatística brasileira. Durante uma semana, o pesquisador da DAPP participou de palestras e minicursos e apresentou seu projeto sobre Ferramentas para Formatação e Verificação de Microdados de Pesquisas, sob orientação do atual presidente-eleito do International Statistical Institute, Pedro Luis do Nascimento Silva.
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
Este relatório tem como objetivos apresentar uma reflexão sobre a minha experiência profissional ao longo de nove anos de serviço como docente de Matemática e analisar o impacto de alguns instrumentos de avaliação na aprendizagem dos alunos no tema da Estatística. Para realizar esta investigação foi selecionada uma turma de um curso profissional, em que quase todos os alunos revelavam dificuldades de aprendizagem em Matemática. Neste estudo, optou-se por uma metodologia de natureza qualitativa de caráter interpretativo. Os instrumentos de avaliação usados na sala de aula e que foram alvo de análise neste estudo foram os seguintes: testes em duas fases, trabalhos escritos e uma apresentação oral. Com estes instrumentos foi possível identificar as principais dificuldades dos alunos. Assim, verificou-se que os alunos revelaram dificuldades em mobilizar os conceitos estatísticos para contextos reais, em usar conceitos e factos estatísticos como argumentos para fundamentar uma dada tomada de posição, em comunicar as suas ideias e também em assimilar alguns conceitos, como por exemplo, o desvio padrão. Ter usado diversos instrumentos de avaliação, contribuiu para que os alunos superassem algumas dessas dificuldades e também permitiu o desenvolvimento de várias capacidades e competências, como a capacidade para comunicar ideias ou opiniões oralmente ou por escrito; em usar a tecnologia para calcular medidas estatísticas ou usar modelos matemáticos que ajudou a interpretar a realidade. Também contribuiu para que os alunos se tornassem mais letrados estatisticamente e, desta forma, cidadãos mais informados e críticos, com maior capacidade para intervir no meio social.
Resumo:
In this work we analyze the skin bioimpedance statistical distribution. We focus on the study of two distinct samples: the statistics of impedance of several points in the skin of a single individual and the statistics over a population (many individuals) but in a single skin point. The impedance data was obtained from the literature (Pearson, 2007). Using the Shapiro-Wilk test and the assymmetry test we conclude that the impedance of a population is better described by an assymetric and non-normal distribution. On the other side, the data concerning the individual impedance seems to follow a normal distribution. We have performed a goodnes of fitting test and the better distribution to fit the data of a population is the log-normal distribution. It is interesting to note that our result for skin impedance is in simtony with body impedance from the literature of electrical engeneering. Our results have an impact over the statistical planning and modelling of skin impedance experiments. Special attention we should drive to the treatment of outliers in this kind of dataset. The results of this work are important in the general discussion of low impedance of points of acupuncture and also in the problem of skin biopotentials used in equipments like the Electrodermal Screen Tests.
Resumo:
The problems of combinatory optimization have involved a large number of researchers in search of approximative solutions for them, since it is generally accepted that they are unsolvable in polynomial time. Initially, these solutions were focused on heuristics. Currently, metaheuristics are used more for this task, especially those based on evolutionary algorithms. The two main contributions of this work are: the creation of what is called an -Operon- heuristic, for the construction of the information chains necessary for the implementation of transgenetic (evolutionary) algorithms, mainly using statistical methodology - the Cluster Analysis and the Principal Component Analysis; and the utilization of statistical analyses that are adequate for the evaluation of the performance of the algorithms that are developed to solve these problems. The aim of the Operon is to construct good quality dynamic information chains to promote an -intelligent- search in the space of solutions. The Traveling Salesman Problem (TSP) is intended for applications based on a transgenetic algorithmic known as ProtoG. A strategy is also proposed for the renovation of part of the chromosome population indicated by adopting a minimum limit in the coefficient of variation of the adequation function of the individuals, with calculations based on the population. Statistical methodology is used for the evaluation of the performance of four algorithms, as follows: the proposed ProtoG, two memetic algorithms and a Simulated Annealing algorithm. Three performance analyses of these algorithms are proposed. The first is accomplished through the Logistic Regression, based on the probability of finding an optimal solution for a TSP instance by the algorithm being tested. The second is accomplished through Survival Analysis, based on a probability of the time observed for its execution until an optimal solution is achieved. The third is accomplished by means of a non-parametric Analysis of Variance, considering the Percent Error of the Solution (PES) obtained by the percentage in which the solution found exceeds the best solution available in the literature. Six experiments have been conducted applied to sixty-one instances of Euclidean TSP with sizes of up to 1,655 cities. The first two experiments deal with the adjustments of four parameters used in the ProtoG algorithm in an attempt to improve its performance. The last four have been undertaken to evaluate the performance of the ProtoG in comparison to the three algorithms adopted. For these sixty-one instances, it has been concluded on the grounds of statistical tests that there is evidence that the ProtoG performs better than these three algorithms in fifty instances. In addition, for the thirty-six instances considered in the last three trials in which the performance of the algorithms was evaluated through PES, it was observed that the PES average obtained with the ProtoG was less than 1% in almost half of these instances, having reached the greatest average for one instance of 1,173 cities, with an PES average equal to 3.52%. Therefore, the ProtoG can be considered a competitive algorithm for solving the TSP, since it is not rare in the literature find PESs averages greater than 10% to be reported for instances of this size.
Resumo:
The vehicles are the main mobile sources of carbon monoxide (CO) and unburned hydrocarbons (HC) released into the atmosphere. In the last years the increment of the fleet of vehicles in the municipal district of Natal-RN it is contributing to the increase of the emissions of those pollutants. The study consisted of a statistical analysis of the emissions of CO and HC of a composed sample for 384 vehicles with mechanization Gasoline/CNG or Alcohol/Gasoline/CNG of the municipal district of Natal-RN. The tests were accomplished in vehicles submitted to Vehicular Safety's Inspection, in the facilities of INSPETRANS, Organism of Vehicular Inspection. An partial gases analyzer allowed to measure, for each vehicle, the levels of CO and HC in two conditions of rotation of the motor (900 and 2500 rpm). The statistical analysis accomplished through the STATISTICA software revealed a sensitive reduction in the efficiency of the converters catalytic after 6 years of use with emission average it is of 0,78% of CO and 156 (ppm) of HC, Which represents approximately 4 (four) times the amount of CO and the double of HC in comparison with the newest vehicles. The result of a Student s t-test, suggests strongly that the average of the emissions of HC (152 ppm), at 900 rpm, is 40% larger than at 2500 rpm, for the motor without load. This result reveals that the efficiency of the catalytic conversion is limited kinetically in low engine speeds. The Study also ends that when comparing the emissions of CO and HC considering the influence of the fuels, it was verified that although the emissions of CO starting from CNG are 62% smaller than arising from the gasoline, there are not significant differences among the emissions of HC originating from of CNG and of the gasoline. In synthesis, the results place the current criteria of vehicular inspection, for exhaust gases, in doubt, leading the creation of emission limits of pollutant more rigorous, because the efficiency of the converters catalytic is sensibly reduced starting from 6 years of use. It is also raised the possibility of modifications in the test conditions adopted by the current norms, specifically in the speed engine, have seen that in the condition without load the largest emission indexes were registered in slow march. That fact that allows to suggest the dismissal of the tests in high speed engine, reducing the time of inspection in half and generating economy of fuel
Resumo:
In the 20th century, the acupuncture has spread on occident as a complementary practice of heath care. This fact has motivated the international scientific community to invest in research that seek to understand why acupuncture works. In this work we compare statistically volt age fluctuation of bioelectric signals caught on the skin at an acupuncture point (IG 4) another nearby on acupuncture point. The acquisition of these signals was performed utilizing an electronic interface with a computer, which was based on an instrumentation amplifier designed with adequate specifications to this end. On the collected signals from a sample of 30 volunteers we have calculated major statistics and submitted them to pairing t-test with significance leveI a = O, 05. We have estimated to bioelectric signals the following parameters: standard deviation, asymmetry and curtose. Moreover, we have calculated the self-correlation function matched by on exponential curve we have observed that the signal decays more rapidly from a non-acupoint then from an acupoint. This fact is an indicative of the existence of information in the acupoint
Resumo:
O processamento de registros sísmicos é uma tarefa muito importante dentro da Geofísica e que representa um desafio permanente na exploração de petróleo. Embora esses sinais forneçam uma imagem adequada da estrutura geológica do subsolo, eles são contaminados por ruídos e, o ground roll é a componente principal. Este fato exige um esforço grande para o desenvolvimento de metodologias para filtragem, Dentro desse contexto, este trabalho tem como objetivo apresentar um método de remoção do ruído ground roll fazendo uso de ferramentas da Física Estatística. No método, a Análise em Ondeletas é combinada com a Transformada de Karhunen-Loève para a remoção em uma região bem localizada. O processo de filtragem começa com a Decomposição em Multiescala. Essa técnica permite uma representação em tempo-escala fazendo uso das ondeletas discretas implementadas a filtros de reconstrução perfeita. O padrão sísmico original fica representado em multipadrões: um por escala. Assim, pode-se atenuar o ground roll como uma operação cirúrgica em cada escala, somente na região onde sua presença é forte, permitindo preservar o máximo de informações relevantes. A atenuação é realizada pela definição de um fator de atenuação Af. Sua escolha é feita pelo comportamento dos modos de energia da Transformada de Karhunen-Loève. O ponto correspondendo a um mínimo de energia do primeiro modo é identificado como um fator de atenuação ótimo
Resumo:
Systems whose spectra are fractals or multifractals have received a lot of attention in recent years. The complete understanding of the behavior of many physical properties of these systems is still far from being complete because of the complexity of such systems. Thus, new applications and new methods of study of their spectra have been proposed and consequently a light has been thrown on their properties, enabling a better understanding of these systems. We present in this work initially the basic and necessary theoretical framework regarding the calculation of energy spectrum of elementary excitations in some systems, especially in quasiperiodic ones. Later we show, by using the Schr¨odinger equation in tight-binding approximation, the results for the specific heat of electrons within the statistical mechanics of Boltzmann-Gibbs for one-dimensional quasiperiodic systems, growth by following the Fibonacci and Double Period rules. Structures of this type have already been exploited enough, however the use of non-extensive statistical mechanics proposed by Constantino Tsallis is well suited to systems that have a fractal profile, and therefore our main objective was to apply it to the calculation of thermodynamical quantities, by extending a little more the understanding of the properties of these systems. Accordingly, we calculate, analytical and numerically, the generalized specific heat of electrons in one-dimensional quasiperiodic systems (quasicrystals) generated by the Fibonacci and Double Period sequences. The electronic spectra were obtained by solving the Schr¨odinger equation in the tight-binding approach. Numerical results are presented for the two types of systems with different values of the parameter of nonextensivity q
Resumo:
In this work we study a connection between a non-Gaussian statistics, the Kaniadakis
statistics, and Complex Networks. We show that the degree distribution P(k)of
a scale free-network, can be calculated using a maximization of information entropy in
the context of non-gaussian statistics. As an example, a numerical analysis based on the
preferential attachment growth model is discussed, as well as a numerical behavior of
the Kaniadakis and Tsallis degree distribution is compared. We also analyze the diffusive
epidemic process (DEP) on a regular lattice one-dimensional. The model is composed
of A (healthy) and B (sick) species that independently diffusive on lattice with diffusion
rates DA and DB for which the probabilistic dynamical rule A + B → 2B and B → A. This
model belongs to the category of non-equilibrium systems with an absorbing state and a
phase transition between active an inactive states. We investigate the critical behavior of
the DEP using an auto-adaptive algorithm to find critical points: the method of automatic
searching for critical points (MASCP). We compare our results with the literature and we
find that the MASCP successfully finds the critical exponents 1/ѵ and 1/zѵ in all the cases
DA =DB, DA