883 resultados para Estatística - Análise
Resumo:
Muitos experimentos tem sido analisados por métodos estatísticos inadequados. O uso não criterioso destes métodos, sem o devido cuidado ou sem considerar outras possibilidades, pode reduzir o valor das discussões, conclusões e o próprio valor da pesquisa. Há uma grande gama de tipos possíveis de abordagem estatística dos dados de pesquisa, cada qual atingindo uma finalidade. Por isso, o procedimento estatístico deve ser escolhido criteriosamente. Se o objetivo de um trabalho e estimar a magnitude de um efeito, então a analise usada deve estimá-la: não basta neste caso, apenas explicar qual dos resultados diferiram significativamente. Não obstante, se o objetivo da pesquisa é determinar um ponto, então a análise deve faze-lo. Neste caso, não e suficiente verificar somente o comportamento dos dados. A escolha de um modelo de regressão e uma ponderação na qual deve ser considerados, a adequação ao fenômeno estudado, o ajuste matemático obtido e a sua aplicabilidade. As propriedades do modelo escolhido devem ser justificáveis, tanto logicamente quanto biologicamente. Portanto, a análise deve ser sensata, lógica e apropriada as questões que procura-se responder.
Resumo:
Esta tese trata de um tema fundamental na sociedade moderna: gestão escolar. O objetivo deste trabalho é contribuir com o gestor, ou a gestora, de Instituições de Ensino Superior de tal forma que ele, ou ela, tenha uma orientação calcada em resultados científicos sobre que ações e medidas devem ser tomadas para melhorar o desempenho de seus formandos em exames padronizados como o Exame Nacional de Cursos (ENC), também conhecido como Provão. Com base em uma extensa pesquisa de modelos de desempenho escolar, foi desenvolvido um modelo conceitual estimável pela técnica dos Modelos Lineares Hierárquicos. A seguir, o modelo estatístico foi ajustado utilizando-se os dados de desempenho escolar dos formandos do curso de Administração de Empresas que realizaram o de 2003. Com base nos resultados obtidos, procurou-se sugerir aos gestores escolares ações. Dessa forma, procurou-se preencher dois objetivos no início deste trabalho: (1) identificar variáveis que ajudem a explicar o desempenho de formandos nos cursos de graduação em Administração de Empresas em exames nacionais como o Provão e o ENADE e (2) oferecer insumos aos gestores de IES de Administração de Empresas sobre como seria possível gerenciar aquelas variáveis que estejam dentro do controle da instituição. Três variáveis, em especial, tiveram um efeito acentuado sobre o desempenho escolar no Provão: fluência na língua inglesa, freqüência de uso de computadores e avaliação que os respondentes fazem das competências a que foram expostos durante o curso superior. Porém, duas dificuldades de medição associadas a esses resultados devem ser consideradas. Em primeiro lugar, a fluência em inglês e o uso de computadores incorporam, em seu efeito, o efeito de variáveis latentes não incorporadas neste estudo. Dessa forma, a origem do efeito dessas duas variáveis não pode ser totalmente esclarecida e o gestor deve tomar diversas ações a fim de cobrir diversas possibilidades distintas. Em segundo lugar, está o fato de que a avaliação que se faz das competências é baseada na percepção de cada aluno e não em medidas intrínsecas de competências desenvolvidas ao longo do curso. Portanto, parte-se da premissa de que os alunos, em média, avaliam, corretamente, as competências que seus cursos os ajudaram a desenvolver. Nas limitações a este estudo, destacaram-se a unidimensionalidade do construto de eficácia escolar e o fato de que a variável utilizada considera o desempenho bruto dos alunos, não sendo uma medida de valor agregado. Além disso, mencionou-se, como limitação, a impossibilidade de se precisar a origem dos efeitos da fluência em inglês e do uso de computadores. Finalmente, as oportunidades de pesquisas futuras tratam de quatro áreas de pesquisas possíveis: (1) estudos comparativos com os resultados de cursos superiores em outras áreas; (2) estudos longitudinais; (3) ampliação do construto eficácia escolar e (4) construção de escalas e indicadores. Cada uma dessas áreas de pesquisa auxiliariam na superação das limitações encontradas no desenvolvimento deste trabalho.
Resumo:
Este trabalho minera as informações coletadas no processo de vestibular entre 2009 e 2012 para o curso de graduação de administração de empresas da FGV-EAESP, para estimar classificadores capazes de calcular a probabilidade de um novo aluno ter bom desempenho. O processo de KDD (Knowledge Discovery in Database) desenvolvido por Fayyad et al. (1996a) é a base da metodologia adotada e os classificadores serão estimados utilizando duas ferramentas matemáticas. A primeira é a regressão logística, muito usada por instituições financeiras para avaliar se um cliente será capaz de honrar com seus pagamentos e a segunda é a rede Bayesiana, proveniente do campo de inteligência artificial. Este estudo mostre que os dois modelos possuem o mesmo poder discriminatório, gerando resultados semelhantes. Além disso, as informações que influenciam a probabilidade de o aluno ter bom desempenho são a sua idade no ano de ingresso, a quantidade de vezes que ele prestou vestibular da FGV/EAESP antes de ser aprovado, a região do Brasil de onde é proveniente e as notas das provas de matemática fase 01 e fase 02, inglês, ciências humanas e redação. Aparentemente o grau de formação dos pais e o grau de decisão do aluno em estudar na FGV/EAESP não influenciam nessa probabilidade.
Resumo:
The problems of combinatory optimization have involved a large number of researchers in search of approximative solutions for them, since it is generally accepted that they are unsolvable in polynomial time. Initially, these solutions were focused on heuristics. Currently, metaheuristics are used more for this task, especially those based on evolutionary algorithms. The two main contributions of this work are: the creation of what is called an -Operon- heuristic, for the construction of the information chains necessary for the implementation of transgenetic (evolutionary) algorithms, mainly using statistical methodology - the Cluster Analysis and the Principal Component Analysis; and the utilization of statistical analyses that are adequate for the evaluation of the performance of the algorithms that are developed to solve these problems. The aim of the Operon is to construct good quality dynamic information chains to promote an -intelligent- search in the space of solutions. The Traveling Salesman Problem (TSP) is intended for applications based on a transgenetic algorithmic known as ProtoG. A strategy is also proposed for the renovation of part of the chromosome population indicated by adopting a minimum limit in the coefficient of variation of the adequation function of the individuals, with calculations based on the population. Statistical methodology is used for the evaluation of the performance of four algorithms, as follows: the proposed ProtoG, two memetic algorithms and a Simulated Annealing algorithm. Three performance analyses of these algorithms are proposed. The first is accomplished through the Logistic Regression, based on the probability of finding an optimal solution for a TSP instance by the algorithm being tested. The second is accomplished through Survival Analysis, based on a probability of the time observed for its execution until an optimal solution is achieved. The third is accomplished by means of a non-parametric Analysis of Variance, considering the Percent Error of the Solution (PES) obtained by the percentage in which the solution found exceeds the best solution available in the literature. Six experiments have been conducted applied to sixty-one instances of Euclidean TSP with sizes of up to 1,655 cities. The first two experiments deal with the adjustments of four parameters used in the ProtoG algorithm in an attempt to improve its performance. The last four have been undertaken to evaluate the performance of the ProtoG in comparison to the three algorithms adopted. For these sixty-one instances, it has been concluded on the grounds of statistical tests that there is evidence that the ProtoG performs better than these three algorithms in fifty instances. In addition, for the thirty-six instances considered in the last three trials in which the performance of the algorithms was evaluated through PES, it was observed that the PES average obtained with the ProtoG was less than 1% in almost half of these instances, having reached the greatest average for one instance of 1,173 cities, with an PES average equal to 3.52%. Therefore, the ProtoG can be considered a competitive algorithm for solving the TSP, since it is not rare in the literature find PESs averages greater than 10% to be reported for instances of this size.
Resumo:
The multivariate t models are symmetric and with heavier tail than the normal distribution, important feature in financial data. In this theses is presented the Bayesian estimation of a dynamic factor model, where the factors follow a multivariate autoregressive model, using multivariate t distribution. Since the multivariate t distribution is complex, it was represented in this work as a mix between a multivariate normal distribution and a square root of a chi-square distribution. This method allowed to define the posteriors. The inference on the parameters was made taking a sample of the posterior distribution, through the Gibbs Sampler. The convergence was verified through graphical analysis and the convergence tests Geweke (1992) and Raftery & Lewis (1992a). The method was applied in simulated data and in the indexes of the major stock exchanges in the world.
Resumo:
A tarefa de projetar um sistema de EAD (SEAD) não é fácil, devido ao número de componentes (estudantes, corpo docente, administração, infra-estrutura, etc.), a complexidade do processo, as diferentes visões e abordagens quanto à sua eficácia, os valores em disputa, os interesses em jogo e as decisões urgentes. O Estado do Pará possui experiências de sucesso nesta modalidade em todos os níveis de ensino. Porém, ainda existem dificuldades, obstáculos, problemas e incertezas a serem enfrentados. Neste sentido, o objetivo da pesquisa foi criar um modelo analítico para identificar e interpretar as incertezas presentes na utilização da EAD pelo sistema educacional do Pará e detectar as atitudes dos atores envolvidos e interessados no processo, contribuindo com critérios e estratégias que podem ser utilizadas para decidir, sob condições de incerteza, sobre a implementação de SEADs e sua operacionalização. Para isso a pesquisa tomou como base a metodologia da Avaliação Integrada (AI), na perspectiva pluralista, sendo realizada em vários momentos, os quais incluiram: ampla pesquisa bibliográfica; sondagem do encaminhamento da EAD no Pará; o uso do método de inquerito delphi para instigar o consenso sobre as incertezas mais relevantes; utilização da Teoria Cultural para subsidiar a identificação da orientação cultural dos respondentes com vistas a revelar as diferentes posturas dos participantes com relação à EAD; o emprego da técnica estatística análise de cluster para agrupar as incertezas e os individuos por similaridades; e uma análise integrada dos resultados advindos das diversas etapas. O nível de consenso foi baixo, resultando em oito incertezas consideradas relevantes para o processo. Destas, 50% são de dimensão metodológica, expressando que durante um processo de inovação a metodologia se destaca por representar mudanças de paradigmas já estabelecidos. O agrupamento de incertezas, por sua vez, revelou oito grandes conjuntos de controvérsias que pressionam de maneiras diferentes o processo de tomada de decisão e operacionalização de sistemas de EAD. Pelas características de cada conjunto, percebe-se que os problemas que perpassam a EAD no Pará fazem parte do contexto atual e contemplam preocupações referentes a pontos que norteiam o processo, a incertezas de caráter geral, ao compromisso político, aos componentes que indicam a qualidade e o reconhecimento da EAD, aos aspectos metodológicos e técnicos, à estabilidade da modalidade, ao acesso e uso das novas tecnologias de informação e comunicação e às condições de infra-estrutura. Durante a concepção de SEADs a orientação cultural influencia o enfoque a ser adotado pelos dirigentes, podendo estar mais direcionado para o controle (hierárquicos), para o respeito ao aluno (igualitários), para a satisfação do aluno (individualistas) e para a visão de desconfiança (fatalistas). A integração de todos os resultados possibilitou indicar critérios de decisão e estratégias para enfrentar as incertezas ou mesmo aprender a conviver com estas. Concluiu-se que o uso da metodologia de AI se mostrou eficaz para o tratamento do problema da EAD no Pará, propiciando uma gestão das incertezas, o que se acredita levar à redução da probabilidade de ocorrência de eventos indesejáveis e/ou inesperados.
Resumo:
A análise estatística multivariada, extensão da análise univariada, consiste num conjunto de técnicas estatísticas, aplicadas quando há diversas variáveis relacionadas simultaneamente, sendo todas elas, em princípio, consideradas importantes no fenômeno em estudo. É de grande aplicação a conjuntos de dados das mais diversas áreas do conhecimento, principalmente da área biológica. Seu desenvolvimento teve um grande impulso na primeira metade do século passado. Entretanto, devido a complexidade dos cálculos matemáticos, principalmente envolvendo operações com matrizes de altas ordens, as aplicações somente se popularizaram nos dias atuais, com o desenvolvimento dos computadores e aplicativos computacionais. Técnicas estudadas: distâncias multivariadas, componentes principais, análise fatorial, correlações canônicas, análise de correspondência, teste t² de Hotelling, análise de variância multivariada (Manova), teste de normalidade multivariada, igualdade de matrizes de variâncias e covariâncias para populações multinormais
Resumo:
A energia dos ventos é uma abundante fonte de energia renovável, limpa e disponível em quase todos os lugares. A geração da eletricidade através de fontes alternativas de energia como a eólica e a solar ganha grande importância diante da situação mundial em relação à preservação do meio ambiente e da necessidade de depender menos dos combustíveis fósseis como fontes de energia. No Brasil, algumas medidas precisas de vento, realizadas recentemente em diversos pontos do território nacional, indicam a existência de um imenso potencial eólico ainda não explorado. Para tanto se faz necessário estudos e revisões bibliográficas dos métodos de descrição e dimensionamento do regime eólico bem como as suas aplicações. Para isso foi feito uma análise do recurso eólico disponível na Região de Botucatu, utilizando os principais métodos de análise estatística e de determinação da energia produzida por um aerogerador.
Resumo:
O objectivo do projecto de mestrado é fazer a análise comparativa entre as metodologias de manutenção recomendadas pelo fabricante de uma marca de tractores agrícolas e as práticas dos proprietários destes equipamentos. O estudo foca-se em seis tractores agrícolas da marca New Holland, cujos dados foram disponibilizados pela empresa Agro Mondego com sede em Alqueidão-Figueira da Foz. Os tractores em causa, embora tendo potências diferentes, a sua utilização nos trabalhos agrícola é similar, bem como os procedimentos e intervalos de manutenção recomendados pelo fabricante. Os equipamentos em apreço, embora constituindo uma pequena amostra, a partir dos dados das suas intervenções já permitem fazer alguma análise estatística conducente a tirar as ilações possíveis sobre as práticas de manutenção e eventuais alterações a efectuar no futuro. As horas de funcionamento dos tractores a que são efectuadas as intervenções, registadas nos seus conta-horas, e que constam nas folhas de obra (Ordens de Trabalho) de cada um destes, bem como os procedimentos, recursos utilizados e custos, constituem os elementos base a partir dos quais é efectuado o estudo. A análise estatística dos dados atrás referidos, bem como o estudo dos desvios, em termos de custos comparativos entre os expectáveis resultantes das recomendações dos fabricantes e os efectivamente pagos, permitem apoiar a decisão sobre eventuais alterações nas metodologias de manutenção a efectuar. O presente projecto tem o potencial de permitir extrapolar ilações para equipamentos similares de outros fabricantes e, eventualmente, de permitir fazer recomendações sobre as melhores práticas de manutenção a levar a efeito no mercado nacional.
Resumo:
Este trabalho tem com objetivo abordar o problema de alocação de ativos (análise de portfólio) sob uma ótica Bayesiana. Para isto foi necessário revisar toda a análise teórica do modelo clássico de média-variância e na sequencia identificar suas deficiências que comprometem sua eficácia em casos reais. Curiosamente, sua maior deficiência não esta relacionado com o próprio modelo e sim pelos seus dados de entrada em especial ao retorno esperado calculado com dados históricos. Para superar esta deficiência a abordagem Bayesiana (modelo de Black-Litterman) trata o retorno esperado como uma variável aleatória e na sequência constrói uma distribuição a priori (baseado no modelo de CAPM) e uma distribuição de verossimilhança (baseado na visão de mercado sob a ótica do investidor) para finalmente aplicar o teorema de Bayes tendo como resultado a distribuição a posteriori. O novo valor esperado do retorno, que emerge da distribuição a posteriori, é que substituirá a estimativa anterior do retorno esperado calculado com dados históricos. Os resultados obtidos mostraram que o modelo Bayesiano apresenta resultados conservadores e intuitivos em relação ao modelo clássico de média-variância.
Resumo:
Neste trabalho apresentamos a teoria da análise de correlação canónica, uma técnica de análise estatística multivariada para o estudo da relação, simultânea, entre dois, três ou mais grupos de variáveis. Descrevemos a natureza da correlação canónica com três ou mais variáveis, com modelos matemáticos, fazendo uma síntese dos métodos de generalização de correlação canónica nomeadamente o método Ssqcor, método Sumcor, método Ecart, método Maxvar, método Minvar, e o método de Carroll. Apresentamos uma aplicação utilizando dados provenientes do cálculo do Índice de Preços no Consumidor IPC, produzido pelo INE - STP (Instituto Nacional de Estatística de São Tomé e Príncipe), referente ao período 2010 a 2014. Estamos interessados em conhecer as correlações canónicas entre grupos de variáveis relacionadas com o cabaz de produtos pré-estabelecido para o cálculo do índice de preços no consumidor, concretamente os produtos alimentares (PA), produtos para bebidas (PB) e produtos não alimentares (PNA), constituindo assim os três grandes grupos de variáveis da nossa pesquisa.
Resumo:
Este estudo consistiu na análise estatística de dados de fluxos de metano durante a safra de 2004/2005 de cultivo de arroz sob regime de inundação contínua, em sistema de transplantio, com uso de fertilizante nitrogenado, na Estação Experimental da APTA/Pólo Regional de Desenvolvimento Tecnológico dos Agronegócios do Vale do Paraíba, em Pindamonhangaba/SP. Nove variáveis ambientais foram monitoradas ao longo desta safra. O principal objetivo do trabalho foi empregar Análise de Componentes Principais aos dados, visando encontrar combinações das variáveis que possam melhor explicar a influência de variáveis ambientais sobre os fluxos de metano, em comparação à análise de variáveis de forma isolada. A Análise de Componentes Principais identifica um pequeno número de combinações lineares (componentes principais) das variáveis que tenham máxima variância. Realizando esta análise através do software estatístico SAS (2002), foram obtidas nove componentes, sendo que a primeira poderia representar a variação de fluxos de metano em até 66%, enquanto as duas primeiras componentes juntas o representariam em até 85%..
Resumo:
Reúne os quadros comparativos das eleições realizadas nas diversas circunscrições, entre 1945 e 1963. Representa o conjunto das publicações anteriormente feitas pelo Tribunal Superior Eleitoral. Está dividido em cinco partes: eleições federais, eleições estaduais, quadro comparativo dos quocientes eleitorais, observações sobre os partidos extintos e eleições municipais.
Resumo:
Cerca de 90% da variabilidade da densidade de m2 de loja de supermercados nas microrregiões do estado de São Paulo pode ser explicada pela densidade de renda ali existente, desde que a autocorrelação espacial presente nas duas variáveis seja levada em consideração. Neste trabalho, apresenta-se o conceito de autocorrelação espacial, sugere-se uma medida para a sua intensidade (Índice de Geary), e estuda-se uma estratégia para sua remoção.
Resumo:
This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).