943 resultados para Metodologias de Custeio
Resumo:
Em 2000, o governo federal xou uma lei que permitia as unidades federativas xarem pisos salariais acima do salário mínimo. Os estados do Rio de Janeiro e do Rio Grande do Sul adotaram essa lei, a partir de 2001 representando uma oportunidade privile- giada de avaliação dos impactos do salário mínimo. A nova lei ao reajustar de maneira diferenciada entre estados e grupos pro ssionais oferece uma fonte de variabilidade po- tencialmente exógena para estimação dos seus impactos . Outra vantagem é isolar os efeitos de mudanças de um preço mínimo sobre a demanda de trabalho dos impactos scais exercidos pelo salário mínimo no contexto brasileiro. Inicialmente, testamos a efetividade da nova lei utilizando a Pesquisa Nacional de Amostras por Domicílio (PNAD) usamos duas metodologias complementares, a saber: i) logits (binário e multinomial) aplicados a PNADS de vários anos tomadas conjunta- mente a m de calcular a probabilidade de acumulação de massa abaixo, igual e acima dos pisos estaduais e do SM; ii) regressões de média e quantílicas para diferenças de salários antes e depois da aplicação da legislação estadual comparando um grupo de tratamento com um grupo de controle. Posteriormente, lançamos mão do aspecto lon- gitudinal da Pesquisa Mensal de Emprego (PME) para aplicarmos em um contexto dinâmico, regressões quantílicas. Os resultados demonstram que a lei exerce algum im- pacto sobre os quantis de rendimentos situados em torno dos valores assumidos pelos pisos salariais mas ainda existe um nível alto de descumprimento da legislação. Dada esta evidência, buscamos adicionalmente avaliar os impactos sobre o nível de emprego da nova lei utilizando a adoção dos pisos estaduais de salário uminense e gaúcho como experimentos naturais. Aplicamos estimadores de diferença em diferença aos dados de painel rotativo derivados da PME. Obtivemos um impacto nulo no emprego, que con- tradiz o modelo usual de oferta e demanda de mercado de trabalho. Este fato pode ser lido como uma evidência adicional da pouca efetividade da lei. Em uma análise complementar, averiguamos a tentativa de implantação pelo estado da Bahia de um "salário mínimo estadual"de 180 reais em abril de 2000, opondo-se ao aumento de 151 reais xados pela União. Mas os resultados se mostraram contrários à lei dos pisos estaduais, ou seja, indicaram pouca efetividade também desta lei xada na Bahia
Resumo:
A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.
Avaliando questionários de risco e o comportamento do investidor sobre a ótica de behavioral finance
Resumo:
Tolerância ao risco é fundamental quando se tomam decisões financeiras. No entanto, a avaliação da tolerância ao risco tem se baseado ao longo dos anos em diferentes metodologias, tais como julgamentos heurísticos e a teoria da utilidade esperada que tem como base a hipótese dos mercados eficientes. Foi dentro desta ótica que este trabalho se desenvolveu. O objetivo é analisar três diferentes questionários de avaliação ao risco que são na prática amplamente utilizados por consultores financeiros. Foi assumido para isso que os investidores são considerados racionais, conhecem e ordenam de forma lógica suas preferências, buscam maximizar a "utilidade" de suas escolhas, e conseguem atribuir com precisão probabilidades aos eventos futuros, quando submetidos a escolhas que envolvam incertezas. No entanto, em uma análise preliminar dos questionários, estes poderiam estar utilizando conceitos de behavioral finance para avaliarem a tolerância ao risco, ao invés de utilizarem somente a metodologia tradicional da teoria da utilidade esperada. Dessa forma tornou-se necessário o estudo dos conceitos de behavioral finance. O primeiro capítulo então trata dos aspectos psicológicos do investidor, procurando entender como este se comporta e como este forma suas preferências. Apesar do estudo assumir racionalidade nas decisões, se a teoria de behavioral estiver correta e os investidores apresentarem desvios a racionalidade, como a teoria prospectiva afirma, o questionário poderia ser o veículo ideal para identificar tais desvios, sendo possível então educar e orientar o indivíduo em suas escolhas financeiras, afim de maximizá-las. O capitulo dois coloca a análise dos questionários inserida no contexto da teoria moderna de finanças, falando das escolhas de portfólio para investidores de longo prazo. O capítulo mostra de forma bem resumida e simplificada como o investidor maximiza a sua utilidade da riqueza. A idéia desse capítulo é entender como alguns julgamentos heurísticos assumidos na prática por consultores financeiros afetam as escolhas de portfólio e em quais condições esses julgamentos heurísticos são verdadeiros. Isso se torna importante pois os questionários mesclam medidas de risco com horizonte de investimentos do investidor. Estes questionários são utilizados para traçar uma política de investimentos completa para o investidor. Para cada perfil de risco encontrado a instituição traça um modelo de alocação de portfólio. O capítulo três trata da avaliação dos questionários em si tendo como base a teoria da utilidade esperada, os conceitos de behaviral finance e as lições tiradas das escolhas de portfólio para investidores de longo prazo.
Resumo:
Este trabalho compara diferentes metodologias de previsão de volatilidade para vértices da estrutura a termo de juros em reais e propõe um novo modelo, batizado como COPOM-GARCH, para estimação desta. O modelo COPOM-GARCH se utiliza de duas variáveis dummy, uma no dia de divulgação do resultado da Reunião do COPOM e outra no dia seguinte, para fazer uma melhor previsão da volatilidade tanto nestes dois dias quanto nos dias subseqüentes.
Resumo:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.
Resumo:
From a methodological point of view, this paper makes two contributions to the literature. One contribution is the proposal of a new measure of pro-poor growth. This new measure provides the linkage between growth rates in mean income and in income inequality. In this context, growth is defined as propoor (or anti-poor) if there is a gain (or loss) in the growth rate due to a decrease (or increase) in inequality. The other contribution is a decomposition methodology that explores linkages between growth patterns and social policies. Through the decomposition analysis, we assess the contribution of different income sources to growth patterns. The proposed methodologies are then applied to the Brazilian National Household Survey (PNAD) covering the period 1995-2004. The paper analyzes the evolution of Brazilian social indicators based on per capita income exploring links with adverse labour market performance and social policy change, with particular emphasis on the expansion of targeted cash transfers and devising more pro-poor social security benefits.
Resumo:
From a methodological point of view, this paper makes two contributions to the literature. One contribution is the proposal of a new measure of pro-poor growth. This new measure provides the linkage between growth rates in mean income and in income inequality. In this context, growth is defined as pro-poor (or anti-poor) if there is a gain (or loss) in the growth rate due to a decrease (or increase) in inequality. The other contribution is a decomposition methodology that explores linkages growth patterns, and labour market performances. Through the decomposition analysis, growth in per capita income is explained in terms of four labour market components: the employment rate, hours of work, the labour force participation rate, and productivity. The proposed methodology are then applied to the Brazilian National Household Survey (PNAD) covering the period 1995-2004. The paper analyzes the evolution of Brazilian social indicators based on per capita income exploring links with adverse labour market performance.
Resumo:
Dada a escassez de informação (principalmente de vazão) nas sub-bacias urbanas, os parâmetros das metodologias usadas no dimensionamento de uma rede de macrodrenagem são estimados a partir de características físicas, introduzindo incertezas sobre os valores corretos do parâmetro. Neste trabalho são apresentados resultados que indicam o impacto que as incertezas nos parâmetros têm sobre os valores da vazão e custo da rede, e custo estimado para redução das mesmas. Foram analisados os parâmetros das metodologias dos blocos alternados utilizada na determinação da chuva de projeto; da “Curva Número” do SCS utilizada para determinação da precipitação efetiva; e de Clark e Hidrograma Unitário Triangular (SCS) empregadas para a propagação de vazão. Também foi analisado o efeito da variabilidade espacial da chuva. Da análise de sensibilidade dos parâmetros determinou-se que para simulação distribuída da bacia, o CN resultou o parâmetro mais sensível. Por exemplo, para um incremento de uma unidade no CN foram encontradas variações de entre 8 e 10% na vazão, o que representa um incremento de 5% no custo. Também foram significativas as diferenças na chuva de projeto obtidas a partir de diferentes IDFs de postos pluviométricos próximos (diferenças de até 80% na vazão ou seja 40% no custo. Mudanças no valor do tempo de concentração somente tiveram efeito significativo na simulação concentrada da bacia; já variações do parâmetro de forma no HTA do método de Clark não tiveram efeitos sobre a vazão ou custo. Por outro lado, os custos de medição de chuva e vazão, necessários para geração da informação que permitiria reduzir a incerteza resultam menores ao impacto produzido por um erro 1% no CN, ressaltando a importância de efetuar coleta contínua de dados de vazão.
Resumo:
Este trabalho é uma contribuição para o conhecimento de metodologias de projeto de estruturas de material composto, aplicando métodos de otimização estrutural a cascas laminadas e apresentando uma estratégia em dois níveis. No primeiro nível é realizada a minimização da flexibilidade da estrutura, tendo como variável de projeto a orientação de cada lâmina da estrutura. Utiliza-se Programação Linear Seqüencial (SLP) e direção de tensão principal para otimização da orientação. No segundo nível minimiza-se o volume de cada lâmina, usando a flexibilidade total da estrutura como restrição e a densidade relativa como variável de projeto, também através de SLP. Para evitar aparecimento de áreas com densidades intermediárias, utiliza-se um Método de Continuação, dividindo o nível de otimização topológica em duas ou mais etapas. As formulações desenvolvidas permitem a solução de problemas com múltiplos casos de carregamento. Para a solução da equação de equilíbrio de casca laminada, utiliza-se um elemento finito de casca degenerado de oito nós com integração explícita na direção da espessura. A implementação desse elemento é feita de modo a facilitar a obtenção das derivadas da matriz de rigidez, necessárias na linearização das funções objetivo e restrições. Evita-se assim o uso de derivadas numéricas. Resultados para vários tipos de estrutura são apresentados, incluindo comparações entre diferentes carregamentos, condições de contorno, número de lâminas, espessuras, etc. As soluções obtidas, formas de análise e possíveis aplicações são discutidas.
Resumo:
Resumo não disponível.
Resumo:
Esta dissertação apresenta diferentes metodologias de construção de indicadores antecedentes compostos de atividade econômica comparando os resultados obtidos por cada de acordo com seu poder de antecipação dos movimentos cíclicos da indústria brasileira. Entre as metodologias testadas incluem-se: i) a tradicional, proposta pelo National Bureau of Economic Research (NBER) na década de 60, adaptada e melhorada ao longo dos anos por instituições como a OCDE, The Conference Board e outros; ii) a seleção de variáveis por meio de testes de causalidade de Granger, e iii) seleção e pesos determinados por meio de regressão múltipla. A qualidade dos indicadores antecedentes compostos criados foi avaliada fora da amostra, com base na sua capacidade em antecipar, de forma regular e estável, os pontos de reversão do ciclo de crescimento da indústria brasileira e levando em consideração a conformidade cíclica geral em relação à variável de referência.
Utilização de reserva de óleo e gás em modelos de avaliação por múltiplos para empresas petrolíferas
Resumo:
O aumento global dos investimentos gerou a necessidade de uma melhor determinação do valor justo das empresas, para tanto, no presente, existem diversas metodologias de avaliação. A metodologia do Fluxo de Caixa Descontado (FCD) e a Avaliação Relativa, também conhecida como múltiplos, são as mais utilizadas. Ao mesmo tempo, o setor de petróleo e gás natural transformou-se em um dos principais segmentos econômicos, principalmente para países em desenvolvimento. Para as empresas desse setor, as reservas de petróleo são cruciais, pois são indicativos de previsão de produção e a garantia de geração de fluxo de caixa no futuro. Dentro desta perspectiva, este trabalho procura quantificar qual a influência do volume das reservas provadas de empresas petrolíferas integradas com ações listadas na bolsa de valores de Nova York (NYSE) no valor de mercado do patrimônio líquido destas empresas. Ou seja, vamos procurar identificar qual a influência do volume das reservas provadas na avaliação relativa por múltiplos, que são indicadores de valor de mercado. O resultado obtido sugere que a acumulação de reservas como estratégia de valorização de uma empresa de petróleo, sem reflexo na lucratividade ou no valor patrimonial, será penalizada pelo mercado.
Resumo:
Este trabalho apresenta o estudo da obtenção de alumina (óxido de alumínio – Al2O3) pelo método sol-gel coloidal e a caracterização da morfologia dos produtos obtidos, associando-a a parâmetros processuais como pH, tipo de solvente empregado e condições de secagem. Utilizou-se como precursor cloreto de alumínio hexahidratado que, após reações de pectização, levou à formação de um gel viscoso com características amorfas. Este gel, após calcinação, deu origem a diferentes fases de alumina e, apresentou diferentes morfologias: pós, fibras ou corpos cerâmicos porosos, que variaram de acordo com os parâmetros processuais adotados. A fim de se avaliar o comportamento do gel frente às diferentes condições de pH, variou-se o pH do sistema utilizando-se ácido acético glacial para ajustes de pH na faixa ácida e, para o ajuste de pH na faixa básica, uma solução aquosa 30% de amônio. Ambos foram escolhidos para o ajuste de pH por não interferirem no processo de síntese da alumina e, por serem facilmente eliminados com tratamentos térmicos. Na etapa de pectização do gel, foram adicionados diferentes solventes, água, álcool ou uma mistura 1:1 de ambos, a fim de se avaliar a sua influência sob o tempo de secagem e distribuição de tamanho de partículas. O gel foi então seco de acordo com as seguintes metodologias de secagem: secagem do gel em estufa a 110°C por 12 horas, secagem do gel em ambiente aberto, com temperatura variando entre 25 e 30°C, pré-evaporação do solvente sob aquecimento (70 a 80°C) e agitação. Os produtos obtidos seguindo esta metodologia foram caracterizados quanto à distribuição granulométrica, análises térmicas (TGA e DTA), difração de raios X, área superficial, densidade real e morfologia (usando microscopia ótica e de varredura).