940 resultados para Fluxos financeiros


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visa analisar a relação entre a produtividade e as condições de trabalho de funcionários em uma área de Processamento de Vegetais de uma Indústria de Refeições Coletivas. O trabalho foi desenvolvido em forma de estudo de caso, e a metodologia utilizada, neste estudo, caracterizou-se como uma pesquisa descritiva, cujos sujeitos da pesquisa foram funcionários da área específica. Para tanto, os instrumentos utilizados para uma avaliação integrada da área da ergonomia, produtividade e layaul, foram: relatórios gerados pelo Departamento Pessoal da empresa; observação direta e utilização de filmagens e fotografias das atividades realizadas; entrevistas, elaboração da matriz produto x processo e de fluxos de processos constando tomadas de tempo e distância e, por fim, análise dos dados e recomendações. Fizeram parte deste estudo 29 funcionários, com a faixa etária variando entre 19 e 49 anos. Constatou-se que o trabalho exige esforço físico, movimentos repetitivos por longos períodos, carregamento e levantamento de peso, postura em pé e deslocamentos durante a realização das atividades. Algumas tarefas foram classificadas como penosas, segundo a percepção dos próprios funcionários, fato que pode estar relacionado com o significativo número de atestados e afastamentos. Observou-se também que ocorrem cruzamentos entre as tarefas, assim como a formação de gargalos, conseqüentemente ocasionando problemas de fluxo. As recomendações envolvem questões pertinentes às condições organizacionais, visando um funcionamento mais satisfatório, através de rearranjos dos postos de trabalho e redução do fluxo. Estas recomendações possibilitariam uma melhor organização nos postos de trabalho, um maior controle de produção, através da separação segundo as características dos processos e, possivelmente na qualidade das condições de execução das tarefas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Regra geral, a taxa interna de retorno de um dado fluxo de caixa só pode ser determinada de forma aproximada, e mediante o emprego de procedimentos iterativos. Concentrando atenção na classe dos fluxos de caixa ditos do tipo simples, são abordados certos casos particulares para os quais, muitas vezes com base em interpretações financeiras, é possível a abtenção de soluções analíticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we compare four different Value-at-Risk (V aR) methodologies through Monte Carlo experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust methodologies have higher probability to predict V aRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate V aR for returns of S˜ao Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A competitividade incremental que vem sendo requerida das empresas tem exigido um processo de gestão ágil e inteligente, no qual uma eficiente gestão da informação é crucial à sobrevivência das organizações. A adoção e implementação de sistemas informacionais, não poucas vezes, tem levado ao desperdício e à frustração pela inobservância de determinados empecilhos que podem não ser detectados quando da tomada de decisão em implantar um sistema. O presente estudo tem por objetivo identificar fatores sociais, técnicos, e financeiros, inibidores à adoção de Tecnologia da Informação avançadas, por parte das pequenas e médias empresas das Micro-Regiões da AMPLASC1 e AMMOC2. O método foi um estudo exploratório de corte transversal, onde, através de survey realizada junto a 62 empresas busca-se levantar as características da população pesquisada. O instrumento de coleta de dados composto de 83 questões foi dividido em quatro partes: a) identificação do respondente e da organização; b) identificando a TI; c) identificação dos fatores técnicos inibidores; e d) identificação dos fatores sócio-culturais inibidores. A análise dos dados foi realizada primeiramente considerando a amostra total, depois quando as organizações eram estratificadas em Pequena e Média empresa, e, finalmente, quando estas organizações eram estratificadas pelo ramo de atividade (Comércio, Industria, e Serviço), demonstrando como os fatores mencionados na literatura mundial são entendidos como com potencialidade inibidoras pelas organizações da região em estudo. Pelos resultados da presente pesquisa é possível concluir que as empresas possuem uma infraestrutura em TI satisfatória aos usuários, que consideram, em sua grande maioria, suficiente os recursos de hardware e software disponibilizados pelas organizações para realização das suas atividades. Apesar disso, é possível verificar que a situação não é totalmente confortável. Isto é, ainda que os respondentes tenham considerado que a infraestrutura em TI seja suficiente, existem alguns fatores que dificultam uma utilização mais adequada das TIs. Conclui demonstrando que alguns fatores precisam ser trabalhados para que a gestão da informação possa trazer a eficiência, eficácia e efetividade as organizações da região do estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Plano Collor foi teoricamente imprevisível, pois representou a opção por uma alternativa de alto risco e reduzidas chances de compatibilizar crescimento sustentado com preços estáveis. Da forma como implementado, o Plano tornou a contenção do déficit público um problema "de vida ou morte" para a evolução futura da economia. Este ponto é abordado na seção inicial, onde tambem se conclui que a contrapartida prática de uma queda de confiança do público no sistema financeiro (devido ao bloqueio compulsório dos cruzados) pode variar de uma maior inflação de equilíbrio a uma abertura de portas ao processo hiper-inflacionário. Na seção seguinte, desenvolve-se um exercício contra-factual, onde as medidas do Plano são confrontadas com uma alternativa bem menos interven cionista (e traumática) de combate à inflação. Este. exercício tem a sua construtividade assegurada na medida em que permite a identificação de alguns entraves à queda de inflação ainda não debelado pelas recentes medidas econômicas. Por último, a terceira seção sugere uma regra de política monetária a ser seguida numa situação na qual, tal como ocorre neste período inicial pôs-Plano, desconhecem-se as novas equações a governar a demanda por ativos financeiros. Mostra-se facilmente que 'tal regra implica na convergência para o pleno emprego com preços estáveis. E, ainda, que essa convergência independe de se suporem constantes, ou mesmo conhecidos, os valores das elasticidades renda e Juros da demanda por moeda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese pretende conhecer de forma profunda a metodologia de ataques especulativos sobre dívidas, desenvolvida por Cole e Kehoe (1996), e tem três objetivos principais: (i) aplicá-la a outros países, além do México, que é feito na versão original; (ii) entender a opção de um país dolarizar, em relação à alternativa de manter sua moeda local, quando a economia depende da entrada de capitais financeiros internacionais; e (iii) estudar a união monetária como uma terceira alternativa de regime monetário, em comparação com a dolarização e o regime de moeda local. O modelo de crises da dívida de Cole-Kehoe é aplicado às economias da Coréia, da Rússia e do Brasil. Modifica-se este modelo para incluir dívida denominada em moeda local, que é totalmente adquirida pelos consumidores nacionais e que dá ao governo a possibilidade de obter receitas por meio da cobrança de um imposto inflacionário sobre estes ativos. As receitas obtidas desta forma podem ser utilizadas para pagar os banqueiros internacionais e evitar uma crise da dívida externa, que ocorreria, em caso contrário. Considera-se também, neste caso, que o banco central possa estar sujeito a pressões de seu governo para gerar estas receitas. Analogamente, para representar um país pertencente a uma união monetária, inclui-se dívida denominada em moeda comum e um governo central no modelo original. A política monetária da união está subordinada à decisão conjunta de todos os países membros. Supõe-se também que o banco central da união possa sofrer pressões políticas de alguns governos nacionais sem disciplina fiscal e dispostos a obter receitas de imposto inflacionário sobre a dívida. Na dolarização, a política monetária está submetida a do banco central do país âncora e, portanto, não há possibilidade de o governo gerar receitas extraordinárias sobre a dívida, a menos que haja forte simetria dos choques que atingem a economia dolarizada e o país âncora. Considerando estas peculiaridades dos três regimes monetários, os níveis de bem-estar são caracterizados e avaliados numericamente para o Brasil. Além disso, obtém-se a política ótima do governo para a dívida em dólar, segundo os três regimes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta de três ensaios em finanças e previdência pública. O primeiro ensaio está relacionado à literatura sobre precificação de ativos e, mais especificamente, sobre o puzzle do prêmio de risco acionário. Os outros dois ensaios não guardam semelhança com o primeiro, estando ligados ao tema previdenciário. Ambos tratam do efeito das reformas da previdência sobre as decisões dos agentes quanto ao momento e ao tipo de suas aposentadoria. No primeiro ensaio, testamos o CCAPM com dados brasileiros utilizando quatro tipos de preferências: utilidade esperada; utilidade esperada generalizada; aversão a desapontamento; e aversão a desapontamento generalizada. A dotação conjunta de consumo e de dividendo foi modelada como um processo Markov switching heterocedástico bivariado de dois estados. A adoção desse modelo só se tornou possível após a criação de uma série de dividendos do IBOVESPA. A possibilidade de se solucionar o Equity Premium Puzzle deu-se através da generalização de preferências que exibem aversão a desapontamento como proposta por Routledge e Zin (2003). Dotando o agente representativo de aversão ao risco de primeira ordem dependente do estado e contra-cíclica, pudemos elevar o fator de desconto intertemporal ao mesmo tempo em que mantínhamos baixa a aversão ao risco efetiva. Assim, exceto pela volatilidade da taxa de juros e pela correlação desta com o prêmio de risco, conseguimos replicar todos os momentos requeridos para a explicação do puzzle com valores razoáveis de parâmetros. No segundo ensaio, estudamos os efeitos das reformas previdenciárias sobre a aposentadoria por invalidez, que, a partir de 2002, tornou-se a principal forma de aposentadoria dos servidores públicos civis do poder executivo federal brasileiro. Em 2005, gastos do governo federal com aposentadorias por invalidez chegaram a 16,4 bilhões de reais. Neste ensaio, investigamos o papel dos incentivos financeiros criados pelas reformas previdenciárias de 1998 e de 2003 no aumento do número de aposentados por invalidez. Os resultados indicam uma queda de 27 pontos percentuais na probabilidade de aposentadoria por invalidez de um servidor representativo caso esses incentivos sejam anulados. Além disso, os dados aqui analisados sugerem que 13 políticas inibidoras desse tipo de aposentadoria seriam mais eficazes se focalizadas no grupo de funcionários com as seguintes características: sexo masculino; 51 a 60 anos de idade; nível de escolaridade superior; vencimento bruto entre 3 e 6 salários mínimos; 21 a 30 anos de tempo de contribuição; e morador da região Centro-Oeste. O terceiro ensaio trata da escolha da idade da aposentadoria pelos servidores públicos. Em 1998, ano da promulgação da emenda constitucional no 20, conhecida como reforma previdenciária, os funcionários públicos civis do poder executivo federal brasileiro aposentavam-se, em média, aos 54,8 anos de idade. Em 2001, essa idade aumentou para 57,4 anos. Seis anos após a reforma, o percentual de aposentadorias antecipadas (aposentadorias com proventos proporcionais) diminuiu 35%. Argumentamos que a modificação do cálculo dos proventos pelas reformas teve papel significativo na decisão pela postergação da aposentadoria. Segundo regras de transição da reforma previdenciária de 1998, servidores receberiam um acréscimo no provento igual a 6,13%, em média, caso postergassem sua aposentadoria por um ano. Os resultados, usando dados do SIAPE, mostram que o aumento desse incentivo gerou uma queda de até 20 pontos percentuais na probabilidade de antecipação da aposentadoria por um servidor representativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta o programa Seis Sigma e o ramo petroquímico. O objetivo deste trabalho é realizar uma análise crítica do processo de implantação de um projeto Seis Sigma em um setor de uma indústria do ramo petroquímico. A empresa focada desejava obter a diminuição da variabilidade presente na diferença entre os níveis de viscosidade da entrada e da saída em um setor de coagulação e acabamento de látex. Para tanto, é usado um método chamado DMAIC, termo provindo das palavras Define, Measure, Analyze, Improve e Control, que identificam cada uma de suas fases. Na dissertação são abordados Análise dos Modos de Falha e seus Efeitos (FMEA), Projetos de Experimentos (DOE), Controle Estatístico de Processo (CEP), Análise de Sistemas de Medição (ASM), Aprendizagem Organizacional, PDCA e Desdobramento da Função Qualidade (QFD). O autor faz uso da pesquisa-ação, com uma abordagem basicamente quantitativa. Na fase Analisar do projeto detectou-se uma ineficiência do sistema de medição para os objetivos do projeto, assim como, no laboratório as leituras a partir de borracha seca apresentam menor variabilidade que as leituras a partir do látex em estado aquoso. A idade dos rotores e a pressão utilizada nos viscosímetros não são significativas para a redução da variabilidade nas leituras. Porém, a adoção de banho térmico no látex e o reposicionamento dos termosensores nos viscosímetros mostraram-se eficazes. Na fase Controlar ao final do projeto ficou evidenciada uma redução no número de lotes redirecionados. A principal dificuldade encontrada na implementação do método DMAIC foi o acompanhamento inadequado dos indicadores técnicos e financeiros. Houve atrasos no cronograma em função da má definição dos papéis das pessoas envolvidas no projeto, pela falta de uma agenda clara de trabalho e pelo uso de um problema muito complexo em um único projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria clássica considera a taxa de retorno esperada como único determinante do fluxo internacional de capitais. Por sua vez, da teoria da paridade de juros resultam duas condições de equilíbrio - paridade coberta e paridade descoberta - que têm sido marcantemente utilizadas na mensuração do retorno esperado. Haja vista a ligação entre os fluxos de capitais e a teoria da paridade de juros, esta é motivo de uma discussão preliminar no Capítulo 1. Embora a teoria da paridade ensine que, sob algumas hipóteses simplifícadoras, a existência de um diferencial de juros entre duas economias seja uma condição suficiente para promover deslocamentos de capitais na direção daquela onde se observam as maiores taxas, as pesquisas empíricas quase sempre registram a presença de um diferencial de juros sem a contrapartida dos fluxos de capitais. A fim de encontrar repostas para esse desencontro entre a predição teórica e a evidência empírica, a literatura tem explorado as imperfeições de mercado. Dentre as distorções mais largamente consideradas, quatro são objeto de análise no Capítulo 1: (1) custos de transação; (2) a mobilidade imperfeita; (3) a substitutibilidade imperfeita entre títulos semelhantes emitidos em economias distintas; e (4) a assimetria de informação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Litterman e Scheinkman (1991) mostram que mesmo uma carteira de renda xa duration imunizada (neutra) pode sofrer grandes perdas e, portanto, propõem fazer hedge de carteiras utilizando a análise de componentes principais. O problema é que tal abordagem só é possível quando as taxas de juros são observáveis. Assim, quando as taxas de juros não são observáveis, como é o caso da maior parte dos mercados de dívida externa e interna de diversos países emergentes, o método não é diretamente aplicável. O presente trabalho propõe uma abordagem alternativa: hedge baseado nos fatores de um modelo paramétrico de estrutura a termo. A imunização feita utilizando esta abordagem não só se mostra simples e e ciente, mas também, equivalente ao procedimento de imunização proposto por Litterman e Scheinkman quando as taxas são observáveis. Exemplos do método para operações de hedge e alavancagem no mercado de títulos da dívida pública brasileira indexada a in ação são apresentados. O trabalho ainda discute como montar e apreçar carteiras que replicam fatores de risco, o que permite extrair alguma informação sobre a expectativa dos agentes acerca do comportamento futuro da curva de juros. Por m, faz uma comparação da expectativa de in ação futura implícita nos preços dos títulos públicos da dívida interna brasileira (LTN/NTN-F e NT

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo construir estruturas a termo da taxa de juros de títulos públicos brasileiros através do uso de modelos estatísticos paramétricos. Estudou-se a capacidade de ajuste de modelos distintos do tipo “splines” e “exponenciais” através de testes de apreçamento de diferentes títulos públicos (prefixados, e indexados à inflação), sob métricas que incluem análises dentro e fora da amostra utilizada no processo de estimação dos modelos. Identificamos que os modelos baseados em funções exponenciais se sobressaem nos testes e parecem ser os mais adequados para construção destas curvas de juros de títulos públicos brasileiros. Vislumbramos os resultados deste estudo como um primeiro passo para a criação de uma importante ferramenta de auxílio à regulação dos mercados de títulos públicos brasileiros, pois a construção de curvas de juros adequadas possibilita uma marcação a mercado de cada título coerente com o preço dos demais, oferecendo melhora na capacidade de se estimar regiões de confiança para preços futuros destes títulos. Palavras-Chave: taxa de juros – estrutura a termo da taxa de juros – renda fixa – títulos públicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria de escolha do portfólio ótimo, desenvolvida a partir da análise da média-variância de Markowitz (1952) deu início ao estudo de vários destes conceitos. A conclusão definitiva deste modelo é que todos os investidores que levam somente em conta a média e o desvio padrão para análise dos investimentos terão o mesmo portfólio de ativos de risco. Investidores conservadores combinarão este portfólio com ativos livres de risco para compor uma carteira menos arriscada. Investidores moderados reduzirão a quantia em ativos livres de risco, aumentando, assim seu risco total. E investidores agressivos podem até contrair empréstimos para obter um portfólio mais arriscado. Os administradores financeiros têm, tradicionalmente, resistido ao simples conselho sobre investimentos embutido nesta teoria. Esta resistência pode, até certo ponto, ser justificada pela necessidade de cada investidor construir seu portfólio refletindo suas preferências e necessidades particulares. Portanto, a gestão da riqueza é um processo direcionado pelas necessidades do indivíduo e não pelos produtos disponíveis. Logo, a análise acadêmica tradicional de escolha do portfólio ótimo precisa ser modificada com o intuito de tratar tais individualidades. O objetivo deste trabalho é usar a base de dados para comparar os resultados empíricos sobre alocação de portfólio à luz da teoria de investimentos com os resultados obtidos através de um questionário respondido pelos funcionários da Souza Cruz, onde utilizaremos um modelo de regressão ordered probit, que prevê a separação em três níveis, dependentes entre si.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O novo cenário mundial, marcado pela globalização e atingindo todos os tipos de empresas nos mais variados setores, é descrito como um ambiente de competição muito acirrada, no qual as empresas precisam encontrar soluções cada vez mais rápidas, com precisão e eficiência, entregando um valor maior para seus clientes e melhores retornos para os acionistas. Nesse ambiente, a informação é um fator primordial de diferenciação, sobrevivência e prosperidade para as organizações. Fluxos de informações confiáveis devem ser desenvolvidos, a fim de contribuir para uma melhor qualidade das decisões. O operador de central de atendimento, ou atendente como é conhecido no segmento, é um infomediário e deve ser preparado e treinado para melhor desempenhar o seu papel na coleta de dados e informações. Assim, o objetivo deste trabalho é propor um fluxo que disponibilize informações precisas e confiáveis a respeito dos clientes, a partir de contatos via central de atendimento da Telet, tornando o processo decisório mais ágil e com foco do cliente. Para isso, foram realizadas entrevistas para identificar as carências e as dificuldades de informações disponibilizadas pela Central de Atendimento às áreas clientes da empresa (marketing, planejamento,engenharia e TI), e foi aplicada uma pesquisa com os atendentes, buscando entender os fatores críticos que os levam a não registrar corretamente as demandas dos clientes, bem como o entendimento de seu papel na organização. Da análise dos dados das entrevistas com especialistas das áreas clientes e dos resultados da pesquisa, estruturada e aplicada em uma amostra de atendentes, emergiu a proposta de um novo fluxo de informações que qualifique a tomada de decisão. Constatou-se que não basta apenas a central de atendimento estar preparada, treinada e capacitada, para melhor atender o cliente e coletar dados e informações dos produtos e serviços. Um fluxo de informações estruturado é fundamental para que a informação trafegue até o destino correto, apoiando a tomada de decisão, permitindo a aprendizagem e a geração do conhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo tem como objetivo verificar a robustez do contéudo preditivo de regras da análise técnica, usando informações intradiárias do mercado futuro do índice de ações da Bolsa de Valores de São Paulo (Ibovespa Futuro). A metodologia sugerida foi a avaliacão em grupos, conforme os resultados de Baptista (2002), tal que as regras são obtidas conforme os resultados em alguns dos subperíodos estudados, sendo testadas em períodos subsequentes. Como resultado, obteve-se robustez ao longo do tempo e à taxa de amostragem dos dados no desempenho das regras acima do benchmark (buy-and-hold), porém considerações realistas acerca do momento de compra, assim como da corretagem (exceto grande investidor), podem reduzir substancialmente os ganhos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho examinou as características de carteiras compostas por ações e otimizadas segundo o critério de média-variância e formadas através de estimativas robustas de risco e retorno. A motivação para isto é a distribuição típica de ativos financeiros (que apresenta outliers e mais curtose que a distribuição normal). Para comparação entre as carteiras, foram consideradas suas propriedades: estabilidade, variabilidade e os índices de Sharpe obtidos pelas mesmas. O resultado geral mostra que estas carteiras obtidas através de estimativas robustas de risco e retorno apresentam melhoras em sua estabilidade e variabilidade, no entanto, esta melhora é insuficiente para diferenciar os índices de Sharpe alcançados pelas mesmas das carteiras obtidas através de método de máxima verossimilhança para estimativas de risco e retorno.