131 resultados para Dados estatísticos
Resumo:
Trata do .problema de análise de dados na administração de negócios. Aborda as tecnologias de base estatística para análise de dados e informações e apoio ao processo decisório. Abrange o uso de tecnologia de delineamento de experimentos em diversas áreas da administração apresenta o uso de delineamento de experimentos (DOX) na filosofia de Taguchi, programa de qualidade Seis Sigma e na reengenharia de processos. Descreve a geração do conhecimento ou "inteligência" a partir da transformação de dados em informações e informações em conhecimento
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
Resumo:
Este trabalho estima modelo CCAPM (consumption capital asset pricing model) para três classes de funções utilidade com dados brasileiros, gerando estimativas robustas de aversão ao risco elasticidade substitu ição intertemporal. Os resultados são analisados comparados resulta dos anteriores para dados brasileiros americanos.
Resumo:
O objetivo desse trabalho é estudar diferentes aspectos que envolvem o mecanismo de repasse cambial no Brasil, para o período de flutuação do real. Os resultados obtidos mostram que a apreciação do real possibilitou a desinflação verificada a partir de 2003, refutando estudos anteriores que identificam assimetrias nos efeitos do pass-through. Estimativas de equações de Phillips para diferentes grupos de preços indicam que os bens comercializáveis apresentam maior sensibilidade não apenas ao repasse cambial, mas também aos demais canais de transmissão da política monetária. No sentido inverso, o elevado peso do coeficiente backward-looking nas equações para os bens não-comercializáveis reforça evidências anteriores acerca de grande rigidez na dinâmica temporal daquele grupo. Verificou-se ainda uma elevada inércia na dinâmica dos bens administrados, caracterizando aquele grupo como uma importante fonte de propagação sobre a inflação futura de choques cambais. As estimativas também mostraram que variações nos preços das commodities produzem importantes repasses sobre a inflação, uma vez que seu coeficiente é semelhante ao da variação cambial. Através de uma abordagem VEC, conclui-se que a taxa real de câmbio atua no sentido de alterar os preços relativos entre os bens comercializáveis e não-comercializáveis, e que o preço real das commodities possui um papel central nesse processo, produzindo variações tanto no câmbio real como nos preços relativos domésticos. Por fim, funções resposta a impulso, calculadas a partir de modelos VAR, confirmam que os choques na taxa cambial são transmitidos sobre os preços com defasagens, atingindo o valor máximo três trimestres após a ocorrência do choque.
Resumo:
None
Resumo:
Em 2000, o governo federal fixou uma lei que permitiu os estados fixarem pisos salariais acima do salário mínimo. Os estados do Rio de Janeiro e Rio Grande do Sul adotaram tal lei. Assim, utilizamos dados de painel da Pesquisa Mensal de Emprego de 2000 e 2001, e os resultados apontam para baixa efetividade da lei nestes estados. Adicionalmente, encontramos evidências de efeito nulo sobre o nível de emprego, na direção contrária ao modelo convencional dos livros texto, dado o grande aumento salarial que a lei proporcionaria.. Assim, as evidências encontradas apontam para um alto descumprimento da legislação.
Resumo:
Esta tese é composta por três artigos, cada um deles correspondendo a um capítulo. Embora cada capítulo verse sobre assuntos distintos, existe a mesma preocupação em todos eles com a correta construção de modelos econométricos agregados a partir de modelos de decisão individual. Em outras palavras, o tema unificador é a preocupação em, ao usar dados agregados, levar em consideração a heterogeneidade dos indivíduos no processo de agregação dos mesmos.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
Neste artigo é desenvolvido um modelo de equilíbrio das firmas a dois setores, mineral e não mineral, que possibilita a construção da trajetória da produtividade total dos fatores setorial. A partir dessa modelagem, o estudo tem dois objetivos: Primeiro, testar a influência da dotação de recursos minerais no desempenho macroeconômico dos países, via PTF. Segundo, testar a dinâmica macroeconômica, PTF, PIB e inflação, gerada por um choque no preço das commodities minerais. Os resultados sugerem a presença da doença holandesa, países com grande dotação de recurso mineral têm um pior desempenho econômico, e que um choque no preço das commodities minerais leva a um aumento da taxa de crescimento do PIB, no curto prazo, e a elevação da inflação mais adiante, em países ricos nesse recurso.
Resumo:
Nos últimos anos, o volume de dados gerados pelas organizações produtivas brasileiras tem crescido vertiginosamente. Com isso, a Gestão de Dados tem se mostrado uma das práticas mais importantes na administração da atualidade. Assim, essa pesquisa procurou mostrar, através de pesquisas bibliográfica e documental, quais são as práticas mais atuais na Gestão de Dados. Descobrindo, em linhas gerais, que as empresas hoje se encontram inseridas definitivamente em um contexto 'virtual', e que as ferramentas de Gestão de Dados 'infiltraram-se' nos mais diversos processos empresariais, e a Internet se tornou o mais indispensável 'ambiente' da atualidade. Além disso, ainda há muito a ser discutido sobre os impactos causados pelas ferramentas de Gestão de Dados junto às Organizações, principalmente no que diz respeito ao bem-estar dos indivíduos que as compõe.
Resumo:
O presente estudo busca realizar uma revisão bibliográfica sobre Assimetria de Informação, de forma a permitir sua análise no mercado brasileiro de capitais. A análise será conduzida com base no modelo de equilíbrio da decisão de emissão-investimento desenvolvido por Myers e Majluf. Este trabalho procurará discutir novas formas de medir Assimetria de Informação através da utilização de modelos estatísticos que permitam, posteriormente, utilizar modelos tais como ARCH e GARCH que consideram a heterocedasticidade da série de dados, desta forma, ampliando o conceito de medida correta sugerido por Nathalie Dierkens.
Resumo:
In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.