43 resultados para Metodologias de Custeio


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho será apresentada a modelagem por regressão logística, com a finalidade de prever qual seria a inadimplência dos clientes que compõem o portfólio de uma grande instituição financeira do país. Sendo assim, será explorada a ideia de usar o conceito de provisionamento pura e simplesmente, através da estimação de uma probabilidade de default dado por um ou mais modelos estatísticos que serão construídos no decorrer do trabalho, conforme incentiva o comitê de Basileia. Um dos modelos será feito a partir de uma separação prévia de público através de clusters e a outra técnica a ser explorada será a criação de um modelo sem nenhuma separação. O objetivo será a comparação entre as duas métricas de classificação de risco e verificar os trade-off entre elas e os impactos de variáveis macroeconômicas nestes modelos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O reconhecimento de que a globalização econômica, a sociedade de conhecimento e as novas tecnologias impactaram o ensino de qualquer área de conhecimento é pacífico. O diagnóstico de que o ensino tradicional do sistema jurídico romano-germânico é marcado pela produção de um conhecimento descritivo e sistemático dos institutos e normas jurídicas codificadas, que compõe uma formação formalista e dogmática do direito, ancorada no protagonismo docente e sustentada em aulas excessivamente expositivas, acolhido por Garcez no presente texto, fortalece a preocupação sobre a prática pedagógica historicamente desenvolvida nos cursos de Direito. Essas premissas têm mobilizado a discussão sobre novas práticas de ensino para a formação jurídica e ressaltado a importância de currículos que se preocupem com a formação de competências e habilidades e valorizem mais o protagonismo discente, além de fazerem uso de ferramentas atuais que considerem as novas tecnologias de ensino. Dessas premissas, também nasce a pergunta que Garcez se dispõe a responder, sobre se ainda faz sentido a sala de aula.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, analisamos utilização da metodologia CreditRLsk+ do Credit Suisse sua adequação ao mercado brasileiro, com objetivo de calcular risco de uma carteira de crédito. Certas hipóteses assumidas na formulação do modelo CreditRisk+ não valem para o mercado brasileiro, caracterizado, por exemplo, por uma elevada probabilidade de defcnilt. Desenvolvemos, então, uma metodologia para cálculo da distribuição de perdas através do método de Simulação de Monte Cario, alterando algumas hipóteses originais do modelo com objetivo de adaptá-lo ao nosso mercado. utilização de simulações também oferece resultados mais precisos em situações onde as carteiras possuem uma pequena população de contratos, além de eliminar possíveis problemas de convergência do método analítico, mesmo considerando as hipóteses do modelo original. Verifica-se ainda que tempo computacional pode ser menor que da metodologia original, principalmente em carteiras com elevado número de devedores de perfis distintos com alocações em diversos setores da economia. Tendo em vista as restrições acima, acreditamos que metodologia proposta seja uma alternativa para forma analítica do modelo CreditRisk+. Apresentamos exemplos de utilização resultados providos por estas simulações. ponto central deste trabalho realçar importância da utilização de metodologias alternativas de medição de risco de crédito que incorporem as particularidades do mercado brasileiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo descrever, avaliar comparar as metodologias analítica da simulação Monte Cario para cálculo do Value at Risk (Valor em Risco) de instituições financeiras de empresas. Para comparar as vantagens desvantagens de cada metodologia, efetuaremos comparações algébricas realizamos diversos testes empíricos com instituições hipotéticas que apresentassem diferentes níveis de alavancagem de composição em seus balanços, que operassem em diferentes mercados (consideramos os mercados de ações, de opções de compra de títulos de renda fixa prefixados).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo principal avaliar a existência de equivalência ricardiana no Brasil. Para isto, empregam-se três metodologias distintas. Inicialmente, com base no modelo de Enders e Lee (1990), utilizam-se regressões do tipo VAR e VEC e decomposição de variância para avaliar de que forma consumo e exportações líquidas reagem a variações não-antecipadas da dívida do setor público, mantidos constantes os gastos do governo. Em seguida, com base no mesmo modelo teórico, estimam-se parâmetros relativos à função consumo e testam-se as restrições de sobre-identificação associadas à técnica de MGM. Por último, efetuam-se testes relativos à restrição de liquidez com base no modelo de consumidores restritos de Campbell e Mankiw (1989). Embora alguns dos resultados sejam inconclusos, particularmente quando se utilizam os dois primeiros métodos de investigação (análise de variância e teste das restrições de sobre-identificação), de modo geral concluímos pela não-validade da hipótese para o Brasil. Teoricamente, isto é compatível com o fato de se ter uma parcela substancial de consumidores brasileiros restritos na obtenção de crédito (a exemplo do que já haviam também concluído Reis, Issler, Blanco e Carvalho (1998) e Issler e Rocha (2000) e do que também concluímos na última seção).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 2000, o governo federal xou uma lei que permitia as unidades federativas xarem pisos salariais acima do salário mínimo. Os estados do Rio de Janeiro e do Rio Grande do Sul adotaram essa lei, a partir de 2001 representando uma oportunidade privile- giada de avaliação dos impactos do salário mínimo. A nova lei ao reajustar de maneira diferenciada entre estados e grupos pro ssionais oferece uma fonte de variabilidade po- tencialmente exógena para estimação dos seus impactos . Outra vantagem é isolar os efeitos de mudanças de um preço mínimo sobre a demanda de trabalho dos impactos scais exercidos pelo salário mínimo no contexto brasileiro. Inicialmente, testamos a efetividade da nova lei utilizando a Pesquisa Nacional de Amostras por Domicílio (PNAD) usamos duas metodologias complementares, a saber: i) logits (binário e multinomial) aplicados a PNADS de vários anos tomadas conjunta- mente a m de calcular a probabilidade de acumulação de massa abaixo, igual e acima dos pisos estaduais e do SM; ii) regressões de média e quantílicas para diferenças de salários antes e depois da aplicação da legislação estadual comparando um grupo de tratamento com um grupo de controle. Posteriormente, lançamos mão do aspecto lon- gitudinal da Pesquisa Mensal de Emprego (PME) para aplicarmos em um contexto dinâmico, regressões quantílicas. Os resultados demonstram que a lei exerce algum im- pacto sobre os quantis de rendimentos situados em torno dos valores assumidos pelos pisos salariais mas ainda existe um nível alto de descumprimento da legislação. Dada esta evidência, buscamos adicionalmente avaliar os impactos sobre o nível de emprego da nova lei utilizando a adoção dos pisos estaduais de salário uminense e gaúcho como experimentos naturais. Aplicamos estimadores de diferença em diferença aos dados de painel rotativo derivados da PME. Obtivemos um impacto nulo no emprego, que con- tradiz o modelo usual de oferta e demanda de mercado de trabalho. Este fato pode ser lido como uma evidência adicional da pouca efetividade da lei. Em uma análise complementar, averiguamos a tentativa de implantação pelo estado da Bahia de um "salário mínimo estadual"de 180 reais em abril de 2000, opondo-se ao aumento de 151 reais xados pela União. Mas os resultados se mostraram contrários à lei dos pisos estaduais, ou seja, indicaram pouca efetividade também desta lei xada na Bahia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tolerância ao risco é fundamental quando se tomam decisões financeiras. No entanto, a avaliação da tolerância ao risco tem se baseado ao longo dos anos em diferentes metodologias, tais como julgamentos heurísticos e a teoria da utilidade esperada que tem como base a hipótese dos mercados eficientes. Foi dentro desta ótica que este trabalho se desenvolveu. O objetivo é analisar três diferentes questionários de avaliação ao risco que são na prática amplamente utilizados por consultores financeiros. Foi assumido para isso que os investidores são considerados racionais, conhecem e ordenam de forma lógica suas preferências, buscam maximizar a "utilidade" de suas escolhas, e conseguem atribuir com precisão probabilidades aos eventos futuros, quando submetidos a escolhas que envolvam incertezas. No entanto, em uma análise preliminar dos questionários, estes poderiam estar utilizando conceitos de behavioral finance para avaliarem a tolerância ao risco, ao invés de utilizarem somente a metodologia tradicional da teoria da utilidade esperada. Dessa forma tornou-se necessário o estudo dos conceitos de behavioral finance. O primeiro capítulo então trata dos aspectos psicológicos do investidor, procurando entender como este se comporta e como este forma suas preferências. Apesar do estudo assumir racionalidade nas decisões, se a teoria de behavioral estiver correta e os investidores apresentarem desvios a racionalidade, como a teoria prospectiva afirma, o questionário poderia ser o veículo ideal para identificar tais desvios, sendo possível então educar e orientar o indivíduo em suas escolhas financeiras, afim de maximizá-las. O capitulo dois coloca a análise dos questionários inserida no contexto da teoria moderna de finanças, falando das escolhas de portfólio para investidores de longo prazo. O capítulo mostra de forma bem resumida e simplificada como o investidor maximiza a sua utilidade da riqueza. A idéia desse capítulo é entender como alguns julgamentos heurísticos assumidos na prática por consultores financeiros afetam as escolhas de portfólio e em quais condições esses julgamentos heurísticos são verdadeiros. Isso se torna importante pois os questionários mesclam medidas de risco com horizonte de investimentos do investidor. Estes questionários são utilizados para traçar uma política de investimentos completa para o investidor. Para cada perfil de risco encontrado a instituição traça um modelo de alocação de portfólio. O capítulo três trata da avaliação dos questionários em si tendo como base a teoria da utilidade esperada, os conceitos de behaviral finance e as lições tiradas das escolhas de portfólio para investidores de longo prazo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho compara diferentes metodologias de previsão de volatilidade para vértices da estrutura a termo de juros em reais e propõe um novo modelo, batizado como COPOM-GARCH, para estimação desta. O modelo COPOM-GARCH se utiliza de duas variáveis dummy, uma no dia de divulgação do resultado da Reunião do COPOM e outra no dia seguinte, para fazer uma melhor previsão da volatilidade tanto nestes dois dias quanto nos dias subseqüentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

From a methodological point of view, this paper makes two contributions to the literature. One contribution is the proposal of a new measure of pro-poor growth. This new measure provides the linkage between growth rates in mean income and in income inequality. In this context, growth is defined as propoor (or anti-poor) if there is a gain (or loss) in the growth rate due to a decrease (or increase) in inequality. The other contribution is a decomposition methodology that explores linkages between growth patterns and social policies. Through the decomposition analysis, we assess the contribution of different income sources to growth patterns. The proposed methodologies are then applied to the Brazilian National Household Survey (PNAD) covering the period 1995-2004. The paper analyzes the evolution of Brazilian social indicators based on per capita income exploring links with adverse labour market performance and social policy change, with particular emphasis on the expansion of targeted cash transfers and devising more pro-poor social security benefits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

From a methodological point of view, this paper makes two contributions to the literature. One contribution is the proposal of a new measure of pro-poor growth. This new measure provides the linkage between growth rates in mean income and in income inequality. In this context, growth is defined as pro-poor (or anti-poor) if there is a gain (or loss) in the growth rate due to a decrease (or increase) in inequality. The other contribution is a decomposition methodology that explores linkages growth patterns, and labour market performances. Through the decomposition analysis, growth in per capita income is explained in terms of four labour market components: the employment rate, hours of work, the labour force participation rate, and productivity. The proposed methodology are then applied to the Brazilian National Household Survey (PNAD) covering the period 1995-2004. The paper analyzes the evolution of Brazilian social indicators based on per capita income exploring links with adverse labour market performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta diferentes metodologias de construção de indicadores antecedentes compostos de atividade econômica comparando os resultados obtidos por cada de acordo com seu poder de antecipação dos movimentos cíclicos da indústria brasileira. Entre as metodologias testadas incluem-se: i) a tradicional, proposta pelo National Bureau of Economic Research (NBER) na década de 60, adaptada e melhorada ao longo dos anos por instituições como a OCDE, The Conference Board e outros; ii) a seleção de variáveis por meio de testes de causalidade de Granger, e iii) seleção e pesos determinados por meio de regressão múltipla. A qualidade dos indicadores antecedentes compostos criados foi avaliada fora da amostra, com base na sua capacidade em antecipar, de forma regular e estável, os pontos de reversão do ciclo de crescimento da indústria brasileira e levando em consideração a conformidade cíclica geral em relação à variável de referência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento global dos investimentos gerou a necessidade de uma melhor determinação do valor justo das empresas, para tanto, no presente, existem diversas metodologias de avaliação. A metodologia do Fluxo de Caixa Descontado (FCD) e a Avaliação Relativa, também conhecida como múltiplos, são as mais utilizadas. Ao mesmo tempo, o setor de petróleo e gás natural transformou-se em um dos principais segmentos econômicos, principalmente para países em desenvolvimento. Para as empresas desse setor, as reservas de petróleo são cruciais, pois são indicativos de previsão de produção e a garantia de geração de fluxo de caixa no futuro. Dentro desta perspectiva, este trabalho procura quantificar qual a influência do volume das reservas provadas de empresas petrolíferas integradas com ações listadas na bolsa de valores de Nova York (NYSE) no valor de mercado do patrimônio líquido destas empresas. Ou seja, vamos procurar identificar qual a influência do volume das reservas provadas na avaliação relativa por múltiplos, que são indicadores de valor de mercado. O resultado obtido sugere que a acumulação de reservas como estratégia de valorização de uma empresa de petróleo, sem reflexo na lucratividade ou no valor patrimonial, será penalizada pelo mercado.