150 resultados para Previsibilidade
Resumo:
O objetivo deste artigo é examinar como as decisões de taxa de juros básica no Brasil (um forte mecanismo de sinalização em política monetária) afetam a estrutura a termo da curva de juros. Diferentemente de outros trabalhos sobre o caso brasileiro, este avalia a evolução da previsibilidade das decisões de política monetária após a introdução do regime de metas de inflação e, também, compara esta evolução com outros países. A metodologia utilizada é um estudo de eventos em 2 períodos distintos: entre jan/2000 e ago/2003, após a introdução do regime de metas de inflação, e entre set/2003 e jul/2008, quando o regime de metas atinge certa maturidade. Os resultados indicam que: 1) os efeitos surpresa na curva de juros estão menores; 2) o poder explicativo das ações de política monetária aumentou; 3) o mercado tem efetuado o ajuste das expectativas de decisão sobre a taxa de juros com antecedência de 3 dias; 4) a previsibilidade e transparência das decisões de política monetária no Brasil aumentaram e estão próximas daquelas observadas nos EUA e Alemanha e superiores ao caso italiano e britânico.
Resumo:
Este trabalho tem como objetivo descrever como os fatores racionais, organizacionais e políticos influenciam o processo decisório no Exército Brasileiro para a obtenção de Materiais de Emprego Militar (MEM). Utilizou-se a abordagem proposta no trabalho de Allison para análise das decisões durante a crise dos mísseis de Cuba em 1962. Os fatores racionais utilizados foram: cálculo, maximização de valor, impessoalidade, escolha racional e racionalidade limitada. Os fatores organizacionais foram: padrões e processos organizacionais, segmentação do problema, coordenação e controle centralizados, flexibilidade limitada, previsibilidade e cultura organizacional. Os fatores políticos utilizados foram: conflito, poder, negociação, contingências, cooptação, interesses e influência externa. Os resultados permitiram constatar que o processo decisório, mesmo ocorrendo em uma organização baseada em pressupostos racionais, sofre influência de fatores organizacionais e políticos.
Resumo:
A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura, utilizando ferramentas de controle da qualidade. A metodologia proposta, chamada de “Estabilização de Processos”, propõe-se a garantir a previsibilidade dos resultados dos processos operacionais através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. O método de trabalho utilizado envolveu as etapas de revisão da literatura existente sobre o assunto, apresenta as etapas do modelo conceitual proposto e as ferramentas de engenharia da qualidade eficientes no cumprimento destas etapas. Por fim, é apresentado e discutido um estudo de caso em uma indústria de pisos e blocos de concreto, que contribuiu para a validação do método proposto.
Resumo:
O presente trabalho foi realizado acerca das estratégias de comercialização de soja , definidas e utilizadas pela Cooperativa Tritícola Serrana Ltda. - Cotrijuí, situada no município de Ijuí - RS. Sendo a soja uma oleaginosa com demanda e comercialização mundiais, este trabalho teve o seguinte problema de pesquisa: quais as estratégias de comercialização de soja da Cotrijuí? Para ao seu entendimento o objetivo geral foi identificar estratégias de comercialização de soja da Cotrijuí. Os resultados obtidos foram identificados por meio de entrevistas e pesquisas junto ao departamento comercial da Cooperativa. Na realidade, o que se observa é que o Cotrijuí tem empenhado esforços no sentido de dar retornos aos associados e manter-se competitiva no mercado. Especificamente no caso da comercialização de soja (aqui entendida como compra do associado e venda ao mercado), a opção em adquirir e vender soja em grão, exige da Cotrijuí habilidade para conseguir identificar o melhor momento para realizar a transação. Nesse sentido o repasse de informações aos associados produtores de soja, visando capacitá -los a tomarem decisões acertadas e conscientes dos resultados é um trabalho que vem sendo desenvolvido pela Cooperativa. Nesse sentido, foi criada uma modalidade de premiação por fidelização na entrega e aquisição de insumos, denominada de "prêmio fidelidade", visando uma previsibilidade e uma garantia de volume de comercialização do produto.
Resumo:
Liderança e Gerenciamento não são a mesma Coisa. Ambos são importantes, porém têm finalidades muito diferentes. Gerenciamento está ligado com planejamento, orçamento, controle e solução de problemas. Seu objetivo básico é produzir um certo grau de previsibilidade e ordem. Já a liderança tem por objetivo primário produzir mudanças, e está relacionada com estabelecimento de direção, alinhamento de pessoas, motivação e inspiração. Utilizando-se estas definições como a estrutura básica do trabalho, realizamos uma pesquisa em 17 empresas com gerentes do 10 escalão e registramos a percepção destes executivos de' que faltam pessoas fortes em prover liderança em muitas empresas nacionais e que apesar disto, somente uma parcela delas está preocupada em atrair e recrutar um número suficiente de pessoas com potencial de liderança. Para conduzir adequadamente as empresas no futuro será necessário, segundo o nosso ponto de vista, transformar nossos gerentes em "gerentes-líderes". Mecanismos tais como recrutamento, demissão, promoção, reconhecimento e recompensa deverão ser usados adequadamente para o estabelecimento de uma nova cultura voltada para a liderança. Escolas de Graduação deveriam também contribuir com este processo discutindo o tema Liderança e Gerenciamento nas suas disciplinas relacionadas com Administração
Resumo:
A realização de negócios em um mundo globalizado implica em aumentar a exposição das empresas não-financeiras a diversos riscos de origem financeira como câmbio, commodities e taxas de juros e que, dependendo da evolução destas variáveis macroeconômicas, podem afetar significativamente os resultados destas empresas. Existem diversas teorias acadêmicas que abordam sobre os benefícios gerados por programas de gestão de riscos em empresas não-financeiras como redução dos custos de financial distress e custos de agência bem como o uso de estratégias de hedge para fins fiscais. Tais iniciativas contribuiriam, em última instância, para a criação de valor para o negócio e poderiam garantir uma melhor previsibilidade dos fluxos de caixa futuros, tornando as empresas menos vulneráveis a condições adversas de mercado. Este trabalho apresenta dois estudos de caso com empresas não-financeiras brasileiras que possuíam exposições em moeda estrangeira e que não foram identificadas operações com derivativos cambiais durante o período de 1999 a 2005 que foi caracterizado pela alta volatilidade da taxa de câmbio. Através de modelos de simulação, algumas estratégias com o uso de derivativos foram propostas para as exposições cambiais identificadas para cada empresa com o objetivo de avaliar os efeitos da utilização destes derivativos cambiais sobre os resultados das empresas no que se refere à agregação de valor para o negócio e redução de volatilidade dos fluxos de caixa esperados. O trabalho não visa recomendar estratégias de hedge para determinada situação de mercado mas apenas demonstra, de forma empírica, quais os resultados seriam obtidos caso certas estratégias fossem adotadas, sabendo-se que inúmeras outras poderiam ser criadas para a mesma situação de mercado. Os resultados sugerem alguns insights sobre a utilização de derivativos por empresas não-financeiras sendo um tema relativamente novo para empresas brasileiras.
Resumo:
A implementação da outorga do uso da água no Brasil implica no estabelecimento de um balanço hídrico de disponibilidades quali-quantitativas, que permita, ao gestor do recurso hídrico, determinar se existe possibilidade de incluir algum uso novo na bacia hidrográfica ou se é necessário algum tipo de racionamento do uso da água. Este balanço deve garantir que as vazões necessárias para o abastecimento público e para a manutenção dos ecossistemas aquáticos e ribeirinhos sejam mantidas. Nesta tese, discute-se a evolução da ecologia de rios e sua implicação nas metodologias desenhadas para avaliação de vazões ecológicas, demonstrando-se que metodologias sintonizadas com os avanços teóricos da ecologia de rios somente surgem no final do século XX e início do século XXI. Discute-se, também, a necessidade de desenvolvimento de metodologias constituídas com ancoragem ecológica em situações de carência ou ausência de dados, que compõem a realidade da maior parte da rede hidrográfica brasileira. Propõe-se uma metodologia e apresenta-se um programa (FFTSint) para avaliação da significância de pulsos em análise espectral de séries temporais de vazões diárias, com base em séries sintéticas, partindo-se do pressuposto de que processos adaptativos, manifestados em termos de tipos funcionais de plantas, dependem de um grau de previsibilidade dos pulsos (associada a pulsos significativos) A série de vazões diárias, filtrada com utilização do FFTSint, é o hidrograma significativo, que pode, então ser estudado através de programas como o IHA e Pulso. Aplicou-se esta abordagem metodológica na estação fluviométrica Rosário do Sul, rio Santa Maria, Estado do Rio Grande do Sul, Brasil, onde verificou-se que o hidrograma significativo, está associado às cotas mais baixas da planície de inundação, enquanto que os componentes aleatórios do hidrograma estão associados às cotas mais altas. Discute-se que processos adaptativos estão associados aos componentes previsíveis, enquanto que processos sucessionais estão mais associados aos aleatórios. Esta observação permitiu a construção de um conjunto de limitações ecológicas ao regime de vazões resultantes do uso na bacia hidrográfica, utilizando-se descritores do regime de pulsos da série não filtrada (original) para as cotas mais altas e descritores filtrados com alta significância para as cotas mais baixas.
Resumo:
A centenária indústria automobilística, um dos elementos responsáveis pela condução da economia mundial ao longo do século XX, tem liderado e ao mesmo tem sido alvo de intensas mudanças provocadas pelo fortalecimento dos processos de globalização, onde se instala um ambiente de competição extrema, e cujo cenário se estende a todos os níveis de sua cadeia produtiva. Hoje testemunhamos a liderança construída ao longo do século XX, pela gigante americana General Motors, ser ultrapassada pela montadora japonesa Toyota. A competição global não se processa mais entre empresas de forma isolada, e sim entre cadeias de suprimentos, cuja gestão transcende as relações formais entre as empresas, tornando-se cada vez mais complexa e de difícil previsibilidade e estabilidade. Por outro lado, persiste, tanto nos meios acadêmicos como no empresarial, a carência de modelos de análise que auxiliem nos processos de gestão da cadeia de suprimentos e de seus elos, resultando processos baseados na experiência e na intuição, sem que variáveis relevantes, que exercem influência direta ou indireta ao longo do tempo nos resultados, tenham sido levadas em consideração. A principal proposta assim com a contribuição desta pesquisa foi o desenvolvimento e validação de uma metodologia para identificação de modelos mentais e sua conversão em diagramas causais, utilizando como base uma cadeia de suprimentos característica da indústria automobilística brasileira, pioneira na implantação do conceito de consórcio e condomínio modular. Para complementar este trabalho, foi desenvolvido através dos diagramas causais, em caráter exploratório, um modelo de simulação computadorizado que permite observar as respostas do sistema dado uma variação em uma de suas variáveis.
Resumo:
A avaliação de desempenho de fundos de investimentos é, tradicionalmente, realizada utilizando-se o Índice de Sharpe, que leva em consideração apenas os dois primeiros momentos da distribuição de retornos (média e variância), assumindo as premissas de normalidade da distribuição de retornos e função quadrática de utilidade do investidor. Entretanto, é sabido que uma função de utilidade quadrática é inconsistente com o comportamento do investidor e que as distribuições de retornos de determinados fundos, como os hedge funds, estão longe de serem uma distribuição normal. Keating e Shadwick (2002a, 2002b) introduziram uma nova medida denominada Ômega que incorpora todos os momentos da distribuição, e tem a vantagem de não ser necessário fazer premissas sobre a distribuição dos retornos nem da função de utilidade de um investidor avesso ao risco. O objetivo deste trabalho é verificar se esta medida Ômega tem um poder de previsibilidade maior que outras medidas de avaliação de desempenho, como o Índice de Sharpe e o Índice de Sortino. O estudo empírico indicou que a medida Ômega gera um ranqueamento, na maioria das vezes, relativamente diferente das outras medidas testadas. Apesar das carteiras formadas com base na medida Ômega terem gerado um retorno médio maior que o retorno médio das carteiras formadas pelas outras medidas em praticamente todos os testes, esta diferença entre as médias dos retornos só foi significativa em alguns casos. Mesmo assim, há uma leve indicação de que a medida Ômega é a mais apropriada para utilização do investidor ao fazer a avaliação de desempenho dos fundos de investimentos.
Resumo:
The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.
Resumo:
Esta tese tem por objetivo principal o estudo da relação entre atividade econômica, inflação e política monetária no tocante a três aspectos importantes. O primeiro, a perspectiva histórica da evolução da relação entre atividade e inflação no pensamento econômico. O segundo, a análise da dinâmica inflacionária utilizando um modelo com fundamentação microeconômica, no caso a curva de Phillips Novo-Keynesiana, com uma aplicação ao caso brasileiro. O terceiro, a avaliação da eficiência dos mecanismos de sinalização de política monetária utilizados pelo Banco Central no Brasil com base nos movimentos na estrutura a termo da taxa de juros com a mudança da meta da Selic. O elemento central que une estes ensaios é a necessidade do formulador de política econômica compreender o impacto significativo das ações de política monetária na definição do curso de curto prazo da economia real para atingir seus objetivos de aliar crescimento econômico com estabilidade de preços. Os resultados destes ensaios indicam que o modelo Novo-Keynesiano, resultado de um longo desenvolvimento na análise econômica, constitui-se numa ferramenta valiosa para estudar a relação entre atividade e inflação. Uma variante deste modelo foi empregada para estudar com relativo sucesso a dinâmica inflacionária no Brasil, obtendo valores para rigidez da economia próximos ao comportamento observado em pesquisas de campo. Finalmente, foi aliviada a previsibilidade das ações do Banco Central para avaliar o estágio atual de desenvolvimento do sistema de metas no Brasil, através da reação da estrutura a termo de juros às mudanças na meta da taxa básica (Selic). Os resultados indicam que comparando o período de 2003 a 2008 com 2000 a 2003, verificamos que os resultados apontam para o aumento da previsibilidade das decisões do Banco Central. Este fato pode ser explicado por alguns fatores: o aprendizado do público sobre o comportamento do Banco Central; a menor volatilidade econômica no cenário econômico e o aperfeiçoamento dos mecanismos de sinalização e da própria operação do sistema de metas. Comparando-se o efeito surpresa no Brasil com aqueles obtidos por países que promoveram mudanças significativas para aumentar a transparência da política monetária no período de 1990 a 1997, observa-se que o efeito surpresa no Brasil nas taxas de curto prazo reduziu-se significativamente. No período de 2000 a 2003, o efeito surpresa era superior aos de EUA, Alemanha e Reino Unido e era da mesma ordem de grandeza da Itália. No período de 2003 a 2008, o efeito surpresa no Brasil está próximo dos valores dos EUA e Alemanha e inferiores aos da Itália e Reino Unido.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.
Resumo:
A simulação, como ferramenta de suporte à tomada de decisão, tem sido utilizada nas mais variadas áreas do conhecimento e especialmente no projeto e dimensionamento de plantas de produção. Em geral, os simuladores para sistemas de produção consideram variáveis relativas à quantidade, tipo e disposição física de máquinas, quantidades dos estoques intermediários, e aos tempos de produção sem, no entanto, considerar os tempos reais do trabalho do ser humano envolvido no processo, apesar de a mão de obra humana ser largamente empregada nestes sistemas, afetando diretamente a sua produtividade. Uma das possíveis razões disto é a complexidade dos fatores que influenciam na produtividade do ser humano, que varia em função de fatores ambientais, fisiológicos, psicológicos ou sociais. Normalmente, os sistemas de simulação da produção representam o trabalhador humano da mesma forma como representam uma máquina, uma ferramenta ou um equipamento, cuja previsibilidade é bem maior. Esta dissertação avalia a questão humana em um simulador bastante utilizado comercialmente, e evidenciou que os fatores ergonômicos são capazes de alterar significativamente os resultados de uma simulação, justificando o desenvolvimento de rotinas computacionais capazes de representar o elemento humano e suas interações com o sistema, de forma mais fidedigna.
Resumo:
Esta dissertação enquadra-se em um processo de busca de soluções para a geração do leiaute de circuitos integrados que permitam aumentar a qualidade da previsibilidade do comportamento de um circuito após a sua implementação. Isso é importante face ao crescimento dos problemas referentes aos efeitos elétricos adversos que surgem em nanocircuitos, tais como eletromigração, efeito antena, contatos mal formados e outros, assim como o aumento da variabilidade do processo de fabricação em tecnologias submicrônicas. O foco deste trabalho de pesquisa é a busca de soluções regulares através do uso de matrizes de portas lógicas. A experimentação efetuada realiza a geração de uma matriz de portas NAND que viabiliza a implementação de equações lógicas mapeadas para redes de portas NAND e inversores, admitindo-se a parametrização do fanout máximo. Foi desenvolvida uma ferramenta de CAD, o MARTELO, que permite efetuar a geração automática de matrizes de portas lógicas, sendo que a versão inicial está voltada para a geração de matrizes com portas NAND em tecnologia CMOS. Os experimentos efetuados revelam que esta técnica é promissora, sendo apresentados alguns dos resultados obtidos.