358 resultados para Previsões
Resumo:
Os objetivos gerais desta tese foram a otimização do processo de congelamento do camarão, e a avaliação do efeito da adição do fosfato que pode afetar o rendimento e a qualidade do produto, conforme percebido pelo consumidor final. Inicialmente, foi feito um levantamento da capacidade tecnológica das empresas de pescado do Brasil. A seguir, foi feita uma revisão da literatura, buscando entender as variáveis que afetam o processo de congelamento do pescado, particularmente as questões associadas ao uso do fosfato no processamento do camarão. Após a revisão da literatura, foi elaborado um planejamento experimental, onde foi possível obter dados referentes ao rendimento (evolução do peso do produto) em cada etapa estudada: imersão em soluções de fosfato, congelamento, descongelamento e cocção. Os melhores rendimentos foram obtidos pelo congelamento com N2 líquido e com o uso de fosfato. A partir desses resultados preliminares, encontrou-se o ajuste ótimo dos fatores analisados e, a partir dele, foram executados novos ensaios para a validação das previsões de rendimento e complementação do estudo através de análises químicas e sensoriais. O uso de fosfato mostrou-se eficaz na retenção de água no descongelamento e após a cocção. Observou-se menor perda de peso no descongelamento do camarão tratado com blend de fosfato (-1,87 %) quando comparado com o Tripolifosfato de sódio – TPF (-2,86%) e controle (imersão em água, -15,5%) O mesmo foi verificado após a cocção: Blend (-7,61%), TPF (-9,05%) e controle (-25,3%). Esses rendimentos foram comprovados com a diminuição da perda de exsudado (drip loss) no descongelamento e após a cocção, o aumento do teor de umidade após a imersão em fosfato e a sua retenção após o descongelamento e cocção. Os níveis residuais de fosfato (TPF e blend) estavam abaixo do limite 0,5% estabelecido pela legislação internacional. Os resultados da análise sensorial demonstraram que o camarão tratado com fosfato reteve os atributos sensoriais, contribuindo, assim, para a maior preferência e aceitação pelos julgadores.
Resumo:
As transformações ocorridas no mercado têm levado os clientes a exigirem dos fornecedores níveis de desempenho cada vez mais elevados, principalmente no que diz respeito à entrega. O desafio para a organização que pretende ser líder em serviço ao cliente é conhecer as exigências dos diferentes segmentos em que atua e reestruturar seus processos de logística em direção ao cumprimento dessas exigências da maneira mais eficiente possível, maximizando a utilização de seus recursos e, para isso, reduzindo os custos. Nas análises de redução dos custos, as empresas avaliaram suas contas dos demonstrativos contábeis e descobriram que o estoque exigia um valor de capital investido, gerando altos custos financeiros ou alto custo de oportunidade. Simplesmente tomar ações pontuais para redução de estoques sem o conhecimento científico tem levado muitas delas à queda do nível de serviço logístico oferecido e, conseqüentemente, à perda de vendas. Esta dissertação objetivou trazer para dentro da empresa, de forma unificada e estruturada, as necessidades/desejos dos clientes, definindo, assim, níveis de serviço adequados aos tipos de mercado ou produto. Isso permite um melhor gerenciamento dos estoques, ou seja, a definição de níveis de serviço por categorias de produtos e conseqüentemente estoques de segurança para sustentar tais níveis. Nesse sentido, recomenda-se a matriz da “casa da qualidade” do QFD como ferramenta de concatenação das necessidades dos clientes com as características logísticas e os recursos da companhia. Para alcançar esse objetivo, foi construído um modelo hipotético de aplicação para estudar diversos níveis de serviços e seus respectivos impactos em valor no estoque de segurança. O estudo visa à aplicação em empresas que atendam aos clientes com estoques de produtos acabados de demanda independente, planejando e produzindo as reposições desses estoques, baseados em previsões de demanda.
Resumo:
Esta tese propõe-se a analisar os analistas de mercado de capitais de empresas brasileiras. Coletando informações do mercado e analisando o desempenho corrente das empresas, estes profissionais realizam projeções de resultados e fazem recomendações. Usando dados extraídos do sistema I/B/E/S, realiza-se uma abrangente pesquisa empírica das previsões e recomendações dos analistas, bem como de seu conteúdo informativo para o mercado brasileiro. O período de estudo foi entre janeiro 1995 a junho 2003. Inicialmente são discutidos conceitos e particularidades do modus operandi dos analistas de empresas brasileiras. A seguir, depois de uma revisão da literatura onde se documentam as principais contribuições e descobertas, procede-se a uma investigação da natureza dos erros de previsão dos analistas de empresas brasileiras. Características como a acurácia, viés e precisão das previsões dos analistas são apreciadas e contextualizadas em diferentes situações. Efetua-se um detalhamento analítico do conteúdo informativo dos diferentes tipos de revisões de previsões dos analistas e das surpresas provocadas pelo anúncio de resultados em desacordo com as expectativas. De modo geral, as revisões e as surpresas, na medida em que informarem o mercado, provocam variações de retornos. Encerra-se a tese com uma análise das recomendações dos analistas. Apura-se a distribuição percentual das recomendações, assim como os efeitos sobre os preços de recomendações de compra (buy) e de venda(sell). O desempenho das recomendações de consenso e o efeito das revisões de recomendações para cima (upgrade) e para baixo (downgrade) são exemplos de outros pontos analisados.
Resumo:
Esta tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.
Resumo:
Uma das maiores dificuldades encontradas pelos técnicos envolvidos na elaboração da previsão do tempo é a falta de integração entre o software de visualização usado por eles e os programas usados para escrever os boletins. Os previsores necessitam de um meio rápido e fácil de gerar previsões com outras formas de apresentação, além do formato de texto em que ela normalmente é produzida. A partir do estudo dessas dificuldades, formulou-se a hipótese de que seria benéfico criar uma linguagem visual para a criação da previsão do tempo, que permitisse gerar tanto o texto de um boletim meteorológico quanto as imagens correspondentes. Este trabalho descreve a especificação dessa linguagem, à qual se deu o nome de Pythonissa. Ela foi definida usando o formalismo de grafos e se constitui de um modelo da estrutura de um boletim de previsão do tempo. Em Pythonissa, cada região geográfica para a qual é feita a previsão é representada por um vértice em um grafo. Os fenômenos presentes na região também são representados por vértices, de outros tipos, ligados à região por arestas que denotam sua presença. Cada tipo de vértice e aresta tem mapeamentos para representações gráficas e para elementos de controle em uma interface com o usuário. A partir da linguagem, foi implementado um protótipo preliminar, no qual é possível criar um boletim de por meio de uma interface visual e gerar o texto e a imagem correspondentes. Foi dado início, também, à construção de um framework para integração da linguagem a um ambiente de visualização de dados, de modo a produzir uma aplicação utilizável em um ambiente de trabalho real. Para isto foram usados o software de visualização Vis5D e a linguagem de scripts Python. A este framework, se deu o nome de Py5D.
Resumo:
Esta dissertação faz uma avaliação das expectativas de inflação dos analistas profissionais utilizadas pelo Banco Central na sua formulação de política monetária. Usando o procedimento proposto por Thomas Jr (1999) constatamos que as previsões, extraídas por meio de entrevistas juntos aos analistas financeiros, publicadas no Boletim Focus, são viesadas e inconsistentes, portanto incapazes de antecipar corretamente movimentos futuros da inflação. Alguns trabalhos, como Estrella e Mishkin (1997), Kozicki (1997) e Kotlan (1999) utilizaram com bons resultados a inclinação da estrutura a termo da taxa de juros (ETTJ) para prever variações da inflação. Adaptamos estes modelos para o Brasil e obtivemos resultados significantes nos horizontes de curto e médio prazos, mostrando que a inclinação da ETTJ pode contribuir para a política de metas de inflação do Banco Central. No entanto, como o Brasil ainda possui uma estrutura a termo muito curta a capacidade de previsão do modelo não vai além de 9 meses. Com a estabilização da economia, se espera que esta curva se alongue, tornando este instrumento de previsão cada vez mais poderoso.
Resumo:
Os investimentos são unanimemente considerados pelos economistas como o coração da economia. Entre as diversas variáveis que afetam os investimentos privados as mais estudadas são as formas de financiamento do déficit público que afetam o ambiente macroeconômico: colocação de dívida ou emissão monetária. Menos atenção tem sido dada às formas de gasto público que afetam o ambiente microeconômico das empresas: aumentos dos salários no setor público podem afetar os salários do setor privado com impactos negativos sobre a lucratividade das empresas e de seus investimentos; por outro lado aumentos dos investimentos públicos, principalmente em infra estrutura tendem a ter impacto oposto. Esta dissertação estimou o impacto destas diferentes formas de gasto público para os investimentos privados Brasil nos últimos 50 anos, utilizando um modelo de correção de erros. No longo prazo se confirmam as previsões microeconômicas: enquanto os investimentos públicos afetam positivamente o investimento privado, os salários do setor público afetam negativamente esta variável. Já no curto prazo apenas o investimento público e privado defasado permaneceram significantes, cujos coeficientes apresentam os mesmos sinas da equação de longo prazo.
Resumo:
No Brasil, a participação das fontes renováveis na matriz energética sempre foi muito alta. Este arranjo torna o Brasil um caso único, quando comparado com outros países de porte econômico e renda média equivalentes às suas e permite prever que esta opção de planejamento energético, iniciada na década de 50, trará vantagens comparativas que poderão vir a beneficiá-lo no longo prazo. Esta constatação motivou a elaboração deste trabalho, cujo objetivo principal é avaliar a evolução da energia renovável na matriz energética brasileira desde 1940, comparando-a com a de outros países. Uma das ferramentas utilizadas para entender a influência da energia renovável na matriz energética brasileira foi a elaboração de um modelo de regressão entre a demanda anual de energia e o Produto Interno Bruto neste período. Os resultados obtidos permitiram mapear estes impactos, bem como determinar a relação de causalidade entre as variáveis de interesse. Como subproduto desta análise, calculou-se a elasticidade energia - PIB, que trouxe algumas conclusões interessantes e importantes para a definição dos parâmetros com vistas a subsidiar as previsões de investimento de longo prazo no setor elétrico.
Resumo:
Esta dissertação procura examinar a relação entre taxas de juros e os movimentos da taxa de câmbio, a partir da paridade descoberta de juros (PDJ). Foi utilizado o procedimento pressupondo expectativas racionais e foi testada a validade da PDJ com dados da economia brasileira desde o Plano Real (julho de 1994) até agosto de 2006. Encontramos evidências que levam à rejeição da PDJ no longo prazo. Além disso, foi examinada a validade da PDJ sem a necessidade de utilizar a hipótese de expectativas racionais, foram utilizadas as previsões de câmbio dos analistas financeiros, publicadas no Boletim Focus de novembro de 2001 a novembro de 2006. Também encontramos evidências que levam à rejeição da PDJ no Brasil.
Resumo:
In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
A formulação de planejamentos e o direcionamento estratégico das empresas dependem da identificação e a previsão correta das mudanças emergentes no ambiente de negócios, o que torna a previsão de demanda um elemento chave na tomada de decisão gerencial. Um dos maiores problemas associados com o uso de previsões de demanda no apoio à tomada de decisões é a escolha do método de previsão a ser implementado. Organizações com necessidades e características distintas em relação aos seus produtos e serviços atuam em diferentes cenários de mercado. Diferentes cenários necessitam de diferentes métodos de previsão, de forma a refletir mudanças na estrutura do mercado (como entrada de novos produtos, novos competidores e/ou mudanças no comportamento dos consumidores). Assim, uma metodologia que direcione diferentes métodos de previsão de demanda para as situações em que são mais eficientes pode auxiliar o processo preditivo e de tomada de decisões das organizações, minimizando erros de planejamentos estratégico, tático e operacional. Esta dissertação apresenta uma metodologia de seleção de métodos de previsão de demanda mais apropriados para diferentes situações. Métodos de integração de métodos qualitativos e quantitativos de previsão melhoram a acurácia nos processo preditivos e também são abordados na metodologia de seleção de métodos de previsão. A metodologia proposta é ilustrada através de dois estudos de caso. No primeiro estudo investigou-se o caso de um produto com demanda regular. No segundo estudo, detalhou-se o processo de previsão para um cenário de lançamento de um novo produto.
Resumo:
Para o desenvolvimento de políticas energéticas e de posicionamento estratégico, é fundamental a elaboração de projeções e cenários. No caso dos biocombustíveis, a FGV Projetos utiliza técnicas avançadas de modelagem econométrica, subsidiadas por análises de mercado, por estudos quantitativos e pela sua experiência em trabalhos sobre a demanda de bens e serviços de infra-estrutura pública, de modo a gerar previsões e cenários com alto grau de precisão.
Resumo:
Neste artigo estimamos e simulamos um modelo macroeconômico aberto de expectativas racionais (Batini e Haldane [4]) para a economia brasileira, com o objetivo de identificar as características das regras monetárias ótimas e a dinâmica de curto prazo gerada por elas. Trabalhamos com uma versão forward-Iooking e uma versão backward-Iooking a fim de comparar o desempenho de três parametrizações de regras monetárias, que diferem em relação à variável de inflação: a tradicional regra de Taylor, que se baseia na inflação passada; uma regra que combina inflação e taxa de câmbio real (ver Ball [5]) e uma regra que utiliza previsões de inflação (ver Bank af England [3]). Resolvemos o modelo numericamente e contruímos fronteiras eficientes em relação às variâncias do produto e da infiação por simulações estocásticas, para choques i.i.d. ou correlacionados. Os conjuntos de regras ótimas para as duas versões são qualitativamente distintos. Devido à incerteza quanto ao grau de forward-Iookingness sugerimos a escolha das regras pela soma das funções objetivos nas duas versões. Concluímos que as regras escolhidas com base neste critério têm perdas moderadas em relação às regras ótimas, mas previnem perdas maiores que resultariam da escolha da regra com base na versão errada. Finalmente calculamos funções de resposta a impulso dos dois modelos para algumas regras selecionadas, a fim de avaliar como diferentes regras monetárias alteram a dinâmica de curto prazo dos dois modelos.
Resumo:
Este artigo busca modelar que incentivos são capazes de influenciar a decisão do trabalhador autônomo de participar ou não do sistema público de Previdência (INSS) utilizando um arcabouço de Teoria de Contratos (modelo de Principal e Agente). Por conta de alterações nas regras referentes à cessão de benefícios previdenciários presentes na Constituição Federal de 1988, supunha-se que os trabalhadores de renda mais baixa teriam incentivo para saírem do sistema. A análise empírica, entretanto, contradiz as previsões do modelo. Há um movimento generalizado de saída do sistema público de previdência e esse movimento É mais acentuado exatamente no grupo dos autônomos mais ricos. Em termos teóricos isto é explicado como uma violação das restrições de compatibilidade de incentivos. Em termos práticos pode-se pensar na maior oferta de fundos de pensão privados existente no mercado, concorrendo com o INSS.