975 resultados para Perdas trabalhistas
Resumo:
Neste trabalho é desenvolvido um modelo integrado para alocação ótima de ativos em bancos comerciais que incorpora restrições incertas de liquidez, atualmente ignoradas por modelos de RAROC e EVA. Se por um lado o lucro econômico considera o custo de oportunidade de ativos com risco, o que pode inclusive incorporar um prêmio de liquidez, por outro é negligenciado o risco de falha devido à falta de fundos suficientes para enfrentar demandas inesperadas de caixa, oriundas de corridas, saques excepcionais de linhas de crédito, ou perdas de crédito, de mercado, ou operacionais, o que pode ocorrer conjuntamente com episódios de racionamento de crédito interbancário ou crises sistêmicas de liquidez. Dada uma restrição de liquidez que pode incorporar tais fatores, há uma probabilidade Pf de que haja uma falha e a restrição de liquidez não seja obedecida, resultando em perda de valor para o banco, representada pela perda estocástica por falha Lf. O lucro econômico total, dada a possibilidade de perda devido à falta de liquidez, é então dinamicamente otimizado, resultando em um esquema de alocação de curto prazo capaz de integrar riscos de mercado, de crédito e operacionais na gestão de liquidez em bancos comerciais. Embora uma abordagem geral via simulação seja sugerida, também é apresentada uma solução fechada, válida sob certos pressupostos simplificadores, cuja otimização é discutida detalhadamente. Uma análise de fatos estilizados é apresentada a seguir, havendo indícios de que a tendência corrente de redução das taxas de juros no Brasil tem influenciado a queda no nível de ativos líquidos como proporção dos depósitos, aumentando a relevância dos modelos de gestão de liquidez, como o aqui proposto. Também foi feita uma implementação do modelo com dados de bancos brasileiros da qual estimou-se um ganho de cerca de 8,5% ao ano no retorno sobre o patrimônio líquido em relação à otimização que não leva em conta as perdas por falta de liquidez. Embora não seja possível estabelecer a significância do resultado em virtude das aproximações utilizadas, observou-se que a sensibilidade deste ganho não é alta em relação a variações nos parâmetros, que modificados de 20%, para mais e para menos, produziram ganhos entre 6,3% e 8,8% ao ano. Os ganhos chegam a 11,1% se o volume de recursos líquidos disponíveis para alocação for aumentado em quatro vezes e mesmo se a perda dada uma falha for reduzida de 8,6 vezes ainda há ganhos anuais de cerca de 0,5% no retorno sobre o patrimônio líquido, dando indícios empíricos de que o modelo possa ter impacto relevante na criação de valor em bancos.
Resumo:
Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).
Resumo:
Este trabalho estuda o processo decisório de empreendedores ao criar novos negócios sob incerteza e sem objetivos claros, a partir da noção de effectuation. Sendo uma abordagem nova no campo de estudo da estratégia e empreendedorismo, a abordagem effectual propõe que os empreendedores focam, no início de uma nova empresa, em quanto eles suportam perder e experimentam tantas estratégias distintas e combinações de recursos quanto possíveis, dados os recursos que já estão sob seu controle. O propósito, neste modelo, não é necessariamente maximizar os retornos financeiros potenciais, mas, sim, reduzir a incerteza de certas estratégias e combinações de recursos. Em effectuation, o empreendedor, por meio de ações, cria os resultados a partir destas combinações de recursos e da alavancagem sobre contingências à medida que reduzem as incertezas que o cerca. Com base, portanto, na teoria de effectuation, esta dissertação teve a ambição não de caracterizar o que seria um processo empreendedor, mas, sim, dar pistas alternativas de análise, bem como explorar as idéias inerentes à decisão de empreender sob incerteza e ambigüidade de objetivos. Assim, o objetivo desta dissertação foi o de examinar se, e em que extensão, empreendedores constroem empresas no mundo real usando effectuation. A pesquisa de campo foi realizada em uma organização (Buscapé), tendo como metodologia o estudo de caso e a narrativa no tratamento e apresentação dos dados obtidos por meio de oito entrevistas semi-estruturadas com fundadores, executivos, funcionários e parceiros da empresa. Como resultados, a análise do caso Buscapé parece indicar que, em vários momentos de sua história, os empreendedores tomaram decisões sem clareza de objetivos. Em especial, no momento da criação da empresa, os empreendedores buscavam minimizar perdas, aproveitando as surpresas que surgiam e explorando ao máximo os recursos que, então, controlavam. A despeito da inexistência de parâmetros de análise da indústria de internet e da incapacidade de se definirem objetivos precisos sobre um modelo de negócio, os empreendedores, naquele momento, decidiram continuar e, em última instância, criaram uma empresa. Em vista destas observações, a teoria de effectuation ajuda a explicar o processo decisório utilizado pelos empreendedores do Buscapé. Conforme indicam estudos anteriores, é possível afirmar que alguns empreendedores parecem tomar decisões de acordo com uma lógica comum, a lógica do controle effectual.
Resumo:
A questão do posicionamento de marcas é central ao processo de gerenciamento de marketing, pois produtos e serviços são adquiridos em grande parte em função da imagem que constroem na mente dos consumidores e clientes. Este trabalho busca explorar as relações existentes entre posicionamento de marca, preferências dos indivíduos e comportamento de compra através do tempo. Mais especificamente, ele se propõe a examinar as relações entre distância de uma marca ao ponto ideal num mapa perceptual e sua participação de mercado, e o quanto mudanças nessa distância através do tempo são acompanhadas de ganhos ou perdas de participação de mercado. Nessa tarefa são utilizadas técnicas de análise multivariada como o escalonamento multidimensional, a fim de elaborar os mapas perceptuais, e o mapeamento de preferências, a fim de localizar pontos ideiais nos mapas elaboradas. Também é utilizada a técnica de análise procrusteana, no processo de comparação de diferentes mapas perceptuais. Uma vez determinadas as distâncias das marcas ao ponto ideal e suas variações entre dois momentos no tempo, tais medidas são correlacionadas às participações de mercado das marcas, e suas variações. Os resultados obtidos no estudo empírico indicam que a variável "distância ao ponto ideal no mapa perceptual" é boa candidata a um indicador de participação de mercado, presente e futura. No entanto, esta distância não se mostra um bom indicador das variações na participação de mercado propriamente ditas. Outro resultado interessante diz respeito ao conceito de equilíbrio entre a ordenação das marcas em função das distâncias ao ponto ideal e ordenação das marcas em função da participação de mercado, sugerindo que quando existe uma discordância nestas ordens, as participações de mercado das mrcas tendem a mudar na direção de reduzir este desequilíbrio.
Resumo:
O ambiente financeiro internacional vem passando por profundas mudanças ao longo das últimas décadas, decorrentes especialmente da evolução tecnológica e científica, onde a globalização da atividade bancária e a alta competição por ganhos nunca antes imaginados expõem as corporações bancárias e a própria sociedade a toda sorte de riscos, considerando-se as possibilidades de perdas decorrentes de uma má gestão dos riscos e de eventuais comportamentos oportunistas dos seus agentes. Tem-se presenciado, por exemplo, os casos de crise recentes do subprime nos EUA e das perdas de mais de 4 bilhões de euros ocasionadas pelo operador Jérôme Kerviel do Société Générale. Da mesma forma, paralelamente esforços vem sendo desenvolvidos para padronização do controle e da regulação dos riscos em escala mundial, como forma de garantir um ambiente de segurança à atividade bancária internacional. Trata-se do Comitê de Basiléia, uma convenção internacional criada em 1974 e cujas recomendações são hoje seguidas por mais de 100 países, incluindo o Brasil. Em 2004 o comitê publicou o Novo Acordo de Capital (Basiléia II) que indica práticas para controle e mitigação de uma nova modalidade de risco, o risco operacional, ou seja, a possibilidade de ocorrência de perdas resultantes de falha, deficiência ou inadequação de processos internos, pessoas e sistemas, ou de eventos externos. Sua correspondente na legislação brasileira é a Resolução nº 3.380/06 do Conselho Monetário Nacional. A resolução determina a criação de uma estrutura dedicada para gerenciamento do risco operacional e da adoção das recomendações de Basiléia II sobre o tema em todas as organizações autorizadas a operar no Brasil pelo Banco Central do Brasil. Trata-se de um grande desafio para as empresas e seus gestores de risco que devem desenvolver e incorporar novos mecanismos de controle, os quais foram convencionados internacionalmente, a despeito de todas as dificuldades de ordem técnica e organizacional, envolvidas nos processos de adequação. O espírito da lei é da busca de total transparência das organizações e de seus membros no tocante à presença de falhas, deficiências e inadequações das práticas do dia-a-dia. Entretanto, há aspectos organizacionais como cultura, práticas sociais e elementos de interpretação que interferem na aplicação da lei na prática (enforcement). Este é um trabalho de caráter exploratório, descritivo e empírico que buscou entender através de análise qualitativa ‘se’ e ‘como’ esse espírito pode ser disseminado e incorporado dentro das organizações bancárias brasileiras de forma a se cumprir a lei e os prazos por ela determinados, face às pressões internacionais por padronização dos controles e da regulação do risco operacional, às pressões do mercado local e às pressões geradas internamente pelo próprio meio institucional da organização, além das necessidades prementes de atendimento à legislação. Espera-se que os resultados deste trabalho contribuam para o endereçamento de futuras pesquisas a cerca do tema.
Resumo:
Estudar o processo e a natureza de políticas públicas voltadas para a proposta de economia solidária, analisando seus limites e contradições. Aborda a questão das relações do trabalho conjuntamente com a questão do Estado, tendo como recorte políticas de trabalho e renda promotoras da autogestão de grupo.
Resumo:
Lida-se aqui com turismo como alternativa para sustentação material do patrimônio histórico e artístico brasileiro. O turismo é visto, pois, como instrumento possível de uma política pública mais ampla que precisa ser urgentemente colocada em ação para minorar as perdas derivadas da deterioração que ameaça a maior parte dos bens tombados. Acompanhando a história da política patrimonial no Brasil, mostra-se como as instâncias oficiais criadas para a proteção tenderam em geral a isolar-se do conjunto da administração pública, configurando o que a moderna análise de public policies chama de insulamento burocrático. No caso do patrimônio, um insulamento resguardado pelo prestígio da cultura erudita e pela legitimidade de arquitetos e historiadores, que compõem sua elite dirigente. A conseqüência, como não poderia deixar de ser, tem sido as perdas freqüentes de participação no orçamento e a incapacidade de seus técnicos de dialogar com interlocutores de outras áreas de governo e da iniciativa privada, de modo a sondar fontes alternativas ou complementares de recursos e reverter o quadro generalizado de deterioração. Para não se exagerar nos efeitos positivos esperáveis do turismo, oferece-se um panorama comparativo do segmento do turismo cultural no estrangeiro, a partir da literatura especializada. Como, essa literatura, relativamente aos países avançados, ao contrário do que ocorre no Brasil, faz bom uso da economia da cultura e de estatísticas confiáveis e minuciosas dos fluxos turísticos, ela constitui uma referência inestimável para se pensar esse ramo de prestação de serviços sem preconceito nem otimismo exagerado. O foco empírico desta dissertação é o sítio histórico de Igarassu, inscrito em um circuito que também inclui Itamaracá, Recife e Olinda. A trinta km ao norte de Recife, em Igarassu se encontra um conjunto de edificações seiscentistas de alto valor artístico. Esse valor histórico, aliado ainda à beleza natural, contudo, não têm bastado para atrair o interesse dos vários elos do negócio turístico, nem para motivar a população e a prefeitura a adotar uma ação mais enérgica e conseqüente, a fim de que se chegue a um regime de visitação mais demorado e economicamente favorável. Em suma, para o turista, Igarassu é apenas um ponto no caminho da praia (Itamaracá), que não merece parada acima de quinze minutos, nem um gasto per capita superior a dois ou três reais. A receita turística não cobre pois o custo de manutenção do patrimônio, podendo ser qualificada de predatória e regressiva. O texto mostra, por fim, um elenco de recomendações e propostas capazes de reverter esse quadro tão negativo, uma vez que sua intenção é colaborar para a melhoria de qualidade da ação de governo em nosso país.
Resumo:
O princípio da não-discriminação no tratamento entre os membros da OMC é um dos pilares do sistema multilateral de comércio. Esta regra geral acomoda, entretanto, uma série de mecanismos de exceção, entre os quais a autorização para que os países concedam preferências comerciais de forma unilateral. Grande parte da literatura sobre os programas de preferências comerciais unilaterais tende a enfatizar os elementos puramente econômicos, sendo pouco explorados os aspectos políticos relacionados a estes programas. Este trabalho centra-se na análise do programa de preferências comerciais unilaterais, criado pela Andean Trade Preference Act de 1991, pelo qual os Estados Unidos concedem preferencias unilaterais à Bolívia, Colômbia, Equador e Peru. Apesar do seu objetivo oficial ser o auxílio à diversificação das exportações dos beneficiários e diminuição do cultivo de culturas ligadas à produção de drogas, a avaliação desenvolvida neste trabalho não identificou efeitos significativos do programa sobre a diversificação das exportações ou produção de coca e cocaína. Verifica-se, por outro lado, que embora não seja exigida reciprocidade dos beneficiários em matéria tarifária, os Estados Unidos vinculam a outorga a uma série de condicionalidades de natureza comercial e não-comercial, como propriedade intelectual, direitos trabalhistas e proteção aos investidores, as quais refletem interesses específicos norte-americanos. A conclusão do estudo é de que a importância da ATPA não pode ser explicada pelo aspecto estritamente comercial. A existência do programa e sua renovação em 2002 são mais compreensíveis quando o analisamos como um instrumento de política externa dos Estados Unidos, pelo qual este país estabelece vínculos comerciais como forma de exercício de coerção suave sobre os beneficiários.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
O acoplamento de radiação óptica em sistemas multicamadas tem sido objeto de diversas pesquisas, não somente acadêmicas, mas também para aplicações industriais, tanto na área de sensores ópticos, como na de processadores ópticos e na de comunicações ópticas. Existe uma variedade de técnicas que são exploradas nestes estudos. Nesta tese, focalizamos nossa atenção no acoplamento de radiação laser ou mesmo de luz branca incoerente a um filme tipo multicamadas e estudamos os mecanismos físicos que governam as reflexões e as perdas por absorção nas multicamadas, efeitos que normalmente não parecem quando a incidência ocorre diretamente do ar para o filme. A técnica que exploramos é conhecida como reflexão interna total atenuada, ATR. A presença de um filme fino metálico permite o estudo experimental de plasmons de superfície e do acoplamento a modos guiados do sistema multicamadas. Além dos estudos experimentais, apresentamos um cálculo teórico iterativo para a refletividade dos filmes do tipo multicamadas para um número qualquer de camadas, que apresenta vantagens computacionais no ajuste dos dados experimentais ou em simulações. Esta contribuição não necessita as aproximações encontradas em um grande número de trabalhos que envolvem sistemas mais simples. Apresentamos também o cálculo do fluxo de energia dentro de cada camada individual do sistema, o que nos permite determinar o tipo de modo acoplado e a sua localização. O método foi aplicado a diversos sistemas, quando uma das camadas foi modificada. Estes estudos foram realizados como função do ângulo de incidência e do comprimento de onda da radiação incidente para uma variedade de sistemas multicamadas. Nossa simulação teórica se mostra bastante adequada e útil para a projeção de sistemas multicamadas complexos com camadas metálicas e dielétricas para sensores óticos.
Resumo:
A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
O objetivo deste trabalho é analisar a alocação de investimentos no mercado acionário brasileiro, utilizando a teoria do prospecto de Tversky e Kahneman (1979) e o conceito de Aversão a Perdas Míope (Myopic Loss Aversion) proposto por Benartzi e Thaler (1995). Foram levantados através de experimento de laboratório os parâmetros da função de valor e da função de ponderação de probabilidades da teoria do prospecto e foi verificada a alocação de investimentos entre ações e renda fixa que maximizam a utilidade. Chegamos à conclusão que o total de recursos atualmente direcionados ao mercado de ações no Brasil, que é de aproximadamente 2,7% para pessoas físicas e de 6,0% para pessoas jurídicas, é compatível com a teoria do prospecto.
Resumo:
Investigamos o padrão de comportamento de um grande número de investidores entre pessoas físicas, pessoas jurídicas institucionais e não-institucionais que transacionaram na Bolsa de Valores de São Paulo (BOVESPA) entre 2001 e 2004. Nosso objetivo foi testar o efeito disposição, ou seja, a tendência a realizar ganhos (winners) antes de perdas (losers), já demonstrado em vários estudos empíricos. Usando várias medidas do efeito disposição em corte-transversal, demonstramos que todos os investidores tendem a realizar winners antes do que losers ao longo de todo o período analisado assim como para cada ano. Entretanto, quando testamos para o efeito disposição por tipo de investidor encontramos resultados distintos. Enquanto os investidores pessoa física ainda apresentam o efeito disposição, os demais investidores demonstram um comportamento ambíguo. Podemos concluir que a segmentação por tipo de investidor traz contribuições relevantes na avaliação do efeito disposição. Usando uma medida em séries temporais, o efeito disposição foi encontrado em todos os anos e para todos os investidores, com exceção dos investidores institucionais no ano de 2004, na utilização da medida baseada em valor (R$). Para validar o resultado anterior aplicamos testes complementares comparando os resultados após isolar alguns fatores como: vendas motivadas pela tributação, rebalanceamento, dividendos e a influência de quedas bruscas de preços de três ações com liquidez. Demonstramos que nenhum destes fatores alterou a tendência a realizar winners antes do que losers.
Resumo:
A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.
Resumo:
Objetivo: Avaliar o consumo de farináceos e de alimentos ricos em ácido fólico em uma amostra de mulheres em idade fértil da cidade de Porto Alegre-Brasil. Métodos: Foi realizado um estudo de prevalência com base populacional, com uma amostra de conveniência. Foi aplicado um questionário de freqüência quantitativa contendo questões relativas à classificação sócio-econômica e ao consumo de farináceos e alimentos-fonte em folato. Foram incluídas no estudo 400 mulheres entre 15 e 45 anos. Todas as participantes assinaram o Termo de Consentimento Livre e Esclarecido. Resultados: O consumo diário de folatos nesta população foi em média de 220,1 g. A quantidade consumida de farináceos foi de 176 g por mulher. A ingestão conjunta de alimentos-fonte de folato e de farináceos fortificados (farinha de trigo e/ou milho) foi de 404,7 g por pessoa. Conclusões: Como o consumo de ácido fólico preconizado pela RDA é de 400g/dia, incluindo tanto o folato proveniente de alimentos-fonte quanto os suplementados, a adição do ácido fólico na farinha de trigo está permitindo que o limite inferior recomendado seja atingido, não havendo, no entanto, uma garantia que esse valor se mantenha se forem computadas as perdas decorrentes do cozimento e da ação da luz UV, não consideradas neste trabalho.