1000 resultados para Estatística de kaniadakis
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
Este estudo teve como objetivo conhecer as expectativas dos servidores do Instituto Brasileiro de Geografia e Estatística (IBGE) em relação às políticas de recursos humanos, dada a elevação da faixa etária da população dos servidores desta instituição. Tomou como ponto de partida os resultados das pesquisas do IBGE - Censo Demográfico e a Pesquisa Nacional de Domicilio - que vêm demonstrando ao longo dos anos a tendência de aumento da esperança de vida da população brasileira. Tendência essa que se reflete na elevação da faixa etária média dos trabalhadores dentro dessa instituição. E ainda, considerou a evolução do papel da Área de Recursos Humanos ao longo dos anos e a sua importância dentro da gestão pública brasileira, dado que sempre teve um lugar de destaque nas diversas reformas administrativas implementadas. Assim, baseado em três vetores: elevação da expectativa de vida do brasileiro, administração de recursos humanos e administração pública brasileira, identificou como o IBGE e seus servidores têm vivenciado a realidade de um quadro de trabalhadores cada vez mais velhos. As entrevistas realizadas com os servidores, analisadas a partir do método da Análise de Conteúdo, revelaram que a questão do envelhecimento, apesar de ter reflexos fortes dentro da instituição, ainda não é claramente destacada dentro das políticas de recursos humanos, o que faz com que os servidores não consigam perceber políticas de RH focadas no envelhecimento do quadro, mostrando-se desmotivados e decepcionados quanto ao tema e ao mesmo tempo ansiosos por mudanças claras e radicais no que tange a gestão das políticas de RH.
Resumo:
Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.
Resumo:
O objetivo do presente trabalho é investigar estatisticamente a influência de determinantes econômicos, tais como, PIB per capita, câmbio real, escolaridade, abertura comercial, peso do governo no produto e população, na perda de peso do setor industrial no produto. A regressão foi estruturada na forma de painel, com dimensão temporal, para capturar a evolução no tempo, e com 130 países, de forma a garantir heterogeneidade à amostra. O resultado indica uma forte influência do produto per capita na evolução do tamanho relativo do setor manufatureiro, o que reforça o ponto da transformação estrutural e estabelece uma relação positiva entre apreciação da taxa de câmbio real e o peso da indústria.
Resumo:
O presente trabalho relata um estudo sobre a aplicação de duas metodologias diferentes do processo ensino-aprendizagem da disciplina Estatística no curso de Formação de Psicologia da Faculdade de Humanidades Pedro II. O estudo empírico realizou-se no primeiro semestre letivo de 1984. Utilizou-se um plano de pesquisa quase-experimental, com o modelo pré-teste/pós-teste. Formaram-se dois grupos intactos. O primeiro grupo constava de 64 sujeitos e o segundo de 66 sujeitos. Foram aplicadas, respectivamente, a metodologia Renovadora, que tinha por objetivo a aprendizagem através da compreensão e da aplicabilidade de conceitos e princípios estatísticos, e a metodologia Tradicional que implicava na aprendizagem por memorização dos princípios e automatização na execução dos cálculos. Os resultados do tratamento estatístico, considerando-se o nível de significância de 0,05, evidenciou não haver diferença estatisticamente significativa entre as duas metodologias de ensino da disciplina Estatística, tanto no que se refere à atitude quanto no que se refere ao aproveitamento.
Resumo:
Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.
Resumo:
Com o objetivo de identificar oportunidades de arbitragem estatística no mercado de opções brasileiro, este trabalho utiliza o modelo de volatilidade incerta e o conceito de Hedging Estático, no apreçamento de um portfólio composto por diversas opções. São também incluídos os custos de transação relacionados a estruturação de um portfólio livre de risco, obtendo assim um modelo que pode ser facilmente implementado através da utilização do método de diferenças finitas explicito. Na aplicação do modelo ao mercado de opções sobre a ação preferencial da Petrobrás (PETR4), foi estabelecido um critério para estabelecer a frequência do ajuste do delta hedge do portfólio livre de risco de maneira a não incorrer em custos de transação elevados. Foi escolhido o período entre 19/05/08 e 20/01/14 para analisar o desempenho do modelo, selecionando-se em cada data de cálculo um conjunto de 11 opções de diferentes strikes e mesmo vencimento para compor o portfólio. O modelo apresentou um bom desempenho quando desconsiderados os custos de transação na apuração do resultado da estratégia de arbitragem, obtendo na maior parte dos casos resultados positivos. No entanto, ao incorporar os custos de transação, o desempenho obtido pelo modelo foi ruim, uma vez que na maior parte dos casos o resultado apresentado foi negativo.
Resumo:
O pesquisador da FGV/DAPP João Victor participou, durante o mês de Julho, do 21º SINAPE - Simpósio Nacional de Probabilidade e Estatística, em Natal, a principal reunião científica da comunidade estatística brasileira. Durante uma semana, o pesquisador da DAPP participou de palestras e minicursos e apresentou seu projeto sobre Ferramentas para Formatação e Verificação de Microdados de Pesquisas, sob orientação do atual presidente-eleito do International Statistical Institute, Pedro Luis do Nascimento Silva.
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
Este relatório tem como objetivos apresentar uma reflexão sobre a minha experiência profissional ao longo de nove anos de serviço como docente de Matemática e analisar o impacto de alguns instrumentos de avaliação na aprendizagem dos alunos no tema da Estatística. Para realizar esta investigação foi selecionada uma turma de um curso profissional, em que quase todos os alunos revelavam dificuldades de aprendizagem em Matemática. Neste estudo, optou-se por uma metodologia de natureza qualitativa de caráter interpretativo. Os instrumentos de avaliação usados na sala de aula e que foram alvo de análise neste estudo foram os seguintes: testes em duas fases, trabalhos escritos e uma apresentação oral. Com estes instrumentos foi possível identificar as principais dificuldades dos alunos. Assim, verificou-se que os alunos revelaram dificuldades em mobilizar os conceitos estatísticos para contextos reais, em usar conceitos e factos estatísticos como argumentos para fundamentar uma dada tomada de posição, em comunicar as suas ideias e também em assimilar alguns conceitos, como por exemplo, o desvio padrão. Ter usado diversos instrumentos de avaliação, contribuiu para que os alunos superassem algumas dessas dificuldades e também permitiu o desenvolvimento de várias capacidades e competências, como a capacidade para comunicar ideias ou opiniões oralmente ou por escrito; em usar a tecnologia para calcular medidas estatísticas ou usar modelos matemáticos que ajudou a interpretar a realidade. Também contribuiu para que os alunos se tornassem mais letrados estatisticamente e, desta forma, cidadãos mais informados e críticos, com maior capacidade para intervir no meio social.
Resumo:
In this work we analyze the skin bioimpedance statistical distribution. We focus on the study of two distinct samples: the statistics of impedance of several points in the skin of a single individual and the statistics over a population (many individuals) but in a single skin point. The impedance data was obtained from the literature (Pearson, 2007). Using the Shapiro-Wilk test and the assymmetry test we conclude that the impedance of a population is better described by an assymetric and non-normal distribution. On the other side, the data concerning the individual impedance seems to follow a normal distribution. We have performed a goodnes of fitting test and the better distribution to fit the data of a population is the log-normal distribution. It is interesting to note that our result for skin impedance is in simtony with body impedance from the literature of electrical engeneering. Our results have an impact over the statistical planning and modelling of skin impedance experiments. Special attention we should drive to the treatment of outliers in this kind of dataset. The results of this work are important in the general discussion of low impedance of points of acupuncture and also in the problem of skin biopotentials used in equipments like the Electrodermal Screen Tests.
Resumo:
The problems of combinatory optimization have involved a large number of researchers in search of approximative solutions for them, since it is generally accepted that they are unsolvable in polynomial time. Initially, these solutions were focused on heuristics. Currently, metaheuristics are used more for this task, especially those based on evolutionary algorithms. The two main contributions of this work are: the creation of what is called an -Operon- heuristic, for the construction of the information chains necessary for the implementation of transgenetic (evolutionary) algorithms, mainly using statistical methodology - the Cluster Analysis and the Principal Component Analysis; and the utilization of statistical analyses that are adequate for the evaluation of the performance of the algorithms that are developed to solve these problems. The aim of the Operon is to construct good quality dynamic information chains to promote an -intelligent- search in the space of solutions. The Traveling Salesman Problem (TSP) is intended for applications based on a transgenetic algorithmic known as ProtoG. A strategy is also proposed for the renovation of part of the chromosome population indicated by adopting a minimum limit in the coefficient of variation of the adequation function of the individuals, with calculations based on the population. Statistical methodology is used for the evaluation of the performance of four algorithms, as follows: the proposed ProtoG, two memetic algorithms and a Simulated Annealing algorithm. Three performance analyses of these algorithms are proposed. The first is accomplished through the Logistic Regression, based on the probability of finding an optimal solution for a TSP instance by the algorithm being tested. The second is accomplished through Survival Analysis, based on a probability of the time observed for its execution until an optimal solution is achieved. The third is accomplished by means of a non-parametric Analysis of Variance, considering the Percent Error of the Solution (PES) obtained by the percentage in which the solution found exceeds the best solution available in the literature. Six experiments have been conducted applied to sixty-one instances of Euclidean TSP with sizes of up to 1,655 cities. The first two experiments deal with the adjustments of four parameters used in the ProtoG algorithm in an attempt to improve its performance. The last four have been undertaken to evaluate the performance of the ProtoG in comparison to the three algorithms adopted. For these sixty-one instances, it has been concluded on the grounds of statistical tests that there is evidence that the ProtoG performs better than these three algorithms in fifty instances. In addition, for the thirty-six instances considered in the last three trials in which the performance of the algorithms was evaluated through PES, it was observed that the PES average obtained with the ProtoG was less than 1% in almost half of these instances, having reached the greatest average for one instance of 1,173 cities, with an PES average equal to 3.52%. Therefore, the ProtoG can be considered a competitive algorithm for solving the TSP, since it is not rare in the literature find PESs averages greater than 10% to be reported for instances of this size.
Resumo:
The vehicles are the main mobile sources of carbon monoxide (CO) and unburned hydrocarbons (HC) released into the atmosphere. In the last years the increment of the fleet of vehicles in the municipal district of Natal-RN it is contributing to the increase of the emissions of those pollutants. The study consisted of a statistical analysis of the emissions of CO and HC of a composed sample for 384 vehicles with mechanization Gasoline/CNG or Alcohol/Gasoline/CNG of the municipal district of Natal-RN. The tests were accomplished in vehicles submitted to Vehicular Safety's Inspection, in the facilities of INSPETRANS, Organism of Vehicular Inspection. An partial gases analyzer allowed to measure, for each vehicle, the levels of CO and HC in two conditions of rotation of the motor (900 and 2500 rpm). The statistical analysis accomplished through the STATISTICA software revealed a sensitive reduction in the efficiency of the converters catalytic after 6 years of use with emission average it is of 0,78% of CO and 156 (ppm) of HC, Which represents approximately 4 (four) times the amount of CO and the double of HC in comparison with the newest vehicles. The result of a Student s t-test, suggests strongly that the average of the emissions of HC (152 ppm), at 900 rpm, is 40% larger than at 2500 rpm, for the motor without load. This result reveals that the efficiency of the catalytic conversion is limited kinetically in low engine speeds. The Study also ends that when comparing the emissions of CO and HC considering the influence of the fuels, it was verified that although the emissions of CO starting from CNG are 62% smaller than arising from the gasoline, there are not significant differences among the emissions of HC originating from of CNG and of the gasoline. In synthesis, the results place the current criteria of vehicular inspection, for exhaust gases, in doubt, leading the creation of emission limits of pollutant more rigorous, because the efficiency of the converters catalytic is sensibly reduced starting from 6 years of use. It is also raised the possibility of modifications in the test conditions adopted by the current norms, specifically in the speed engine, have seen that in the condition without load the largest emission indexes were registered in slow march. That fact that allows to suggest the dismissal of the tests in high speed engine, reducing the time of inspection in half and generating economy of fuel