958 resultados para Politica monetária - Métodos estatísticos


Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partir da Constituição de 1988, houve crescimento expressivo na busca pela prestação jurisdicional, mas sem acréscimo proporcional na estrutura judiciária e sem a adequada alteração do sistema processual. O descompasso provocou o congestionamento da maioria dos órgãos judiciais. Atualmente, a morosidade é o problema mais grave enfrentado pelo Poder Judiciário brasileiro. Dentre as suas várias causas, somente as que têm relação com o modo de prestação do serviço podem ser enfrentadas internamente. Nesse contexto, a modernização da administração judiciária, baseada em informação estatística de qualidade, é a solução que se mostra viável. No Rio Grande do Sul, o aprimoramento do sistema de coleta de dados é condição indispensável para que o Tribunal de Justiça disponha de estatísticas adequadas de medição da produtividade individual e de indicadores de desempenho da instituição. A capacitação dos magistrados em técnicas estatísticas básicas também se faz necessária, a fim de que as informações fornecidas pelo sistema possam ser interpretadas corretamente, em benefício da administração do Poder Judiciário.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trata do .problema de análise de dados na administração de negócios. Aborda as tecnologias de base estatística para análise de dados e informações e apoio ao processo decisório. Abrange o uso de tecnologia de delineamento de experimentos em diversas áreas da administração apresenta o uso de delineamento de experimentos (DOX) na filosofia de Taguchi, programa de qualidade Seis Sigma e na reengenharia de processos. Descreve a geração do conhecimento ou "inteligência" a partir da transformação de dados em informações e informações em conhecimento

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese é composta de dois ensaios que aplicam a Teoria de Valores Extremos a finanças

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Há diferenças significativas nos níveis de fluência digital entre os alunos da Rede Pública de Ensino de Porto Alegre em função de suas diferentes condições de acesso e utilização de computadores, conectividade e sociabilidade. Utilizamos uma amostra de 430 casos obtidos em 19 escolas da Rede Pública de Ensino com o objetivo de mapear as relações tecidas na rede de interações entre agentes humanos e não-humanos que compõem o entorno das Escolas Estaduais de Ensino Médio. Para reconstituirmos as múltiplas relações que se estabelecem no processo de produção do conhecimento, utilizamos a idéia de rede sociotécnica, principalmente, no que se refere a interesses políticos, econômicos e sociais dos grupos envolvidos, evitando, sobretudo, à luz de tal abordagem, a dimensão meramente instrumental da ciência. Trabalhamos com métodos estatísticos para o estabelecimento de indicadores de acessibilidade, usabilidade, interconectividade, sociabilidade e fluência no uso do suporte informático. O conceito weberiano de tipo ideal serviu de subsídio à construção de parâmetros de análise. Com o uso deste aporte metodológico-conceitual estabelecemos distâncias existentes entre os diferentes pontos dessa rede de interações. Os indicadores permitiram identificar sete níveis distintos de fluência digital entre os alunos, sendo dois relacionados à acessibilidade (Não Fluentes I e II), dois à usabilidade do suporte e da Internet (Não Fluentes III e IV) e três relativos ao nível de domínio que estes possuem com relação à utilização do suporte informático (Fluente no Suporte Informático; Fluente Potencial; Fluente no Uso do Suporte Informático e das Tecnologias da Informação e Comunicação).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem como objetivo fazer uma avaliação sobre a correlação entre os preços de açúcar crú e petróleo crú. Até poucos anos atrás, commodities agrícolas e energéticas possuíam uma baixa, ou até mesmo insignificante correlação entre as séries de preços. Este cenário vem se modificando nos últimos anos e este trabalho re-avalia a existência de correlação entre os mercados de açúcar crú e petróleo crú. Uma possível causa para este efeito é a utilização de commodities agrícolas na produção de combustíveis líquidos, como o etanol, sendo este o elo de conexão entre o mundo fossil e o mundo agrícola. Através de indices como o de correlação fica possível encontrar mecanismos de precificação e hedge em outros mercados mais líquidos e consequetemente mitigar o risco de comercialização de produtos como o açúcar e o etanol de origem de cana-de-açúcar. Em primeiro lugar procurou-se traçar um esboço das possíveis causas desta nova correlação entre commodities agrícolas e energéticas. Em seguida foram utilizados métodos estatísticos e econométricos para avaliar a existência de correlação significativa entre os preços das commodities escolhidas e como estas correlações tem se alterado ao longo do tempo. O modelo GARCH pode ser utilizado para descrever a volatilidade com menos parâmetros do que um modelo ARCH. Neste trabalho, foi selecionado primeiramente o melhor modelo GARCH para esta avaliação e, subsequentemente, este foi usado para avaliar a existência de alteração de correlação entre as variáveis escolhidas. Os resultados revelaram que o índice de correlação entre os preços do açúcar crú e do petróleo crú é estatisticamente diferente de zero e é crescente ao longo do período de tempo estudado. Contudo, apenas a variância condicional do preço do petróleo crú se alterou ao longo do tempo, não acontecendo o mesmo com o açúcar crú. Assim sendo, ainda não é possível afirmar que a correlação crescente observada entre os preços de açúcar crú e petróleo crú é decorrente da relação desses mercados com o mercado de biocombustíveis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partir dos objetivos propostos pelas políticas nacionais de saúde, ambientais e de saneamento básico buscou-se analisar os efeitos da cobrança pelo uso da água no setor de saneamento básico, visando identificar possíveis variações causadas por este instrumento econômico no acesso à água, na qualidade do produto ofertado e na qualidade do serviço prestado. Ainda, por se tratar de um serviço público, analisamos a performance técnica das empresas paulistas do setor de saneamento básico na prestação deste serviço por meio da metodologia Data Envelopment Analysis. Esta ferramenta resulta em um indicador de desempenho, com base na melhor relação input/output, ao estabelecer um ranking de eficiência médio a partir das práticas mais eficientes de cada unidade produtiva.