564 resultados para Estimació paramètrica
Resumo:
Este trabalho apresenta um conjunto de técnicas para a modelagem paramétrica e geração de malhas de superfícies para uso em sistemas de análise e simulações numéricas pelo Método dos Elementos Finitos. Foram desenvolvidos algoritmos para a geração paramétrica de superfícies, para a determinação das curvas de interseções entre superfícies e para a geração de malhas em superfícies curvas e recortadas. Foram implementas linhas e curvas paramétricas básicas, a partir das quais são geradas superfícies paramétricas de vários tipos que proporcionam uma grande flexibilidade de modelamento geométrico. Curvas e superfícies são geradas e manipuladas de forma interativa. São apresentadas técnicas que simplificam a implementação de linhas e superfícies paramétricas. Foi desenvolvido um algoritmo para determinar as curvas de interseção entre superfícies paramétricas, que são utilizadas como linhas de recorte (trimming lines) para obter geometrias complexas e compostas de várias superfícies. O algoritmo desenvolvido emprega técnicas de subdivisão adaptativa, por quadtrees, em função da curvatura local das superfícies. Primeiramente, obtém-se uma aproximação das curvas de interseção no espaço 3D, através da aproximação por triângulos. Os resultados iniciais são refinados e projetados sobre as duas superfícies envolvidas com algoritmos que permitem obter grande precisão. As curvas de interseção finais são mapeadas nos espaços paramétricos das duas superfícies, porém com uma parametrização única, o que facilita a junção com superfícies adjacentes Um algoritmo de geração de malha foi desenvolvido para gerar malhas triangulares de qualidade sobre as superfícies curvas e recortadas. O algoritmo utiliza um processo de subdivisão adaptativa por quadtrees, similar ao utilizado no algoritmo de interseção, para definir tamanhos de elementos em função da curvatura local. Em seguida, aplica-se um algoritmo tipo advancing front para gerar a malha sobre a superfície. Os algoritmos foram implementados e testados em um ambiente gráfico interativo especialmente desenvolvido para este trabalho. São apresentados vários exemplos que comprovam a eficiência das técnicas e algoritmos propostos, incluindo exemplos de matrizes de conformação mecânica para uso com código de análise METAFOR, análise de sensibilidade para otimização de pré-formas e de modelagem de superfícies compostas recortadas com geração de malhas de qualidade, para uso em análise por Elementos Finitos ou como contorno para geração de elementos tridimensionais.
Resumo:
Este estudo utiliza o modelo de fronteira estocástica paramétrica com dados em painel para estimação das funções de produção asso- ciadas aos grupos da indústria de transfomação brasileira no período de 1996-2005. Um ponto importante dessa técnica é a possibilidade de utilização de um conjunto de variáveis explicativas para o com- ponente de ine ciência. Com o objetivo de captar as dinâmicas da fronteira tecnológica e do nível de ine ciência foram introduzidos com- ponentes de tendência linear e quadrática. Veri cou-se para o período a ocorrência de aumento do nível de ine ciência técnica e de progresso tecnológico a taxas constantes. Observou-se ainda que o nível de ine - ciência relaciona-se negativamente com os salários médios do pessoal direta e indiretamente ligado à produção, com o percentual de tributos sobre a receita total ,com o grau de terceirização e com o percentual da receita total originário da atividade principal da indústria.
Resumo:
Este trabalho propõe um modelo de forma reduzida livre de arbitragem para a extração de probabilidades de default a partir de spreads de Swaps de Crédito e aplica-o realizando uma análise da percepção de risco da dívida soberana brasileira confrontando dois momentos com contextos econômicos distintos. É utilizada uma modelagem paramétrica da estrutura temporal das probabilidades condicionais de default para a qual se testa duas formas funcionais distintas: Constante por Partes e Linear por Partes. Os resultados fornecem evidências que corroboram a aplicabilidade do modelo e indicam uma clara vantagem da modelagem Linear por Partes, por se ajustar melhor aos dados e possuir implicações convenientes na estrutura a termo das taxas de juros ajustadas ao risco de default.
Resumo:
A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.
Resumo:
Diversos estudos de Finanças Corporativas consideram os custos associados aos ajustes da estrutura de capital das empresas irrelevantes tanto na forma quanto em magnitude. Este estudo analisou empiricamente a influência dos custos de ajustamento na dinâmica dos ajustes da estrutura de capital de empresas brasileiras de capital aberto no período de 1999 a 2007. A alavancagem foi abordada sob três diferentes cenários, considerando a presença de custos fixos, custos proporcionais e por uma composição de custos fixos e proporcionais através de simulações utilizando um modelo reduzido da estrutura de capital. Em seguida a análise não paramétrica da amostra revelou que as empresas apresentam um comportamento dinâmico em suas decisões de financiamento para o ajuste da estruturas de capital, mas que não se revelou contínuo. A utilização de um modelo de duration mostrou-se adequado para mensurar o intervalo de tempo entre os ajustes da estrutura de capital das empresas. Os resultados são extremamente relevantes e suportam a teoria de um comportamento de rebalanceamento dinâmico pelas empresas de suas estruturas de capital em torno de um intervalo ótimo. Entretanto os ajustes não ocorrem de forma imediata e a persistência de choques à estrutura de capital deve-se em sua maior parte aos custos associados aos ajustes do que a uma possível indiferença à estrutura de capital. . Este trabalho constitui-se como pioneiro no mercado brasileiro acerca dos custos de ajustamento da estrutura de capital e abre espaço para a discussão do comportamento ótimo em torno da estrutura de capital de empresas nacionais.
Resumo:
A execução da pavimentação da malha viária municipal urbana deve seguir um eficiente planejamento técnico-econômico para adequada gestão de recursos financeiros. Soluções alternativas como: bases de solo estabilizado com cinza-cal ou areia-asfalto, e revestimentos de areia-asfalto, reafirmam-se de grande valia para pavimentos de baixo custo na região litorânea do Rio Grande do sul, onde há abundância de areias e falta de agregados pétreos. Considere-se ainda, que a proximidade de usinas termoelétricas, geradoras de grandes quantidades de cinzas, facilita a utilização desde rejeito, o que diminui o passivo ambiental. Para o estudo dos materiais foi necessária a caracterização das jazidas de areia de Rio Grande, das cinzas da Usina Termoelétrica de Candiota e das cinzas da queima do carvão do secador de grãos da empresa Bianchini localizada em Rio Grande. Foram realizados ensaios de granulometria, peso específico, equivalente de areia e o ensaio Goldbeck. Com o objetivo de analisar o comportamento mecânico das misturas foram realizados os ensaios Marshall, módulo resiliente, resistência à compressão e à tração e de desgaste de misturas betuminosas. Com os resultados dos ensaios citados, realizou-se a análise paramétrica, através do programa de diferenças finitas Elsym 5, para dimensionar diversos tipos de pavimentos, onde as variáveis foram os teores de CAP do revestimento e as porcentagens de cal das misturas de cinza-cal. Concluiu-se então, que a utilização das misturas de areia-asfalto e cinza-cal são satisfatórias para pavimentos com baixo volume de tráfego, salientando os problemas de se trabalhar com as misturas a frio, devido ao elevado tempo de cura. A construção de um trecho experimental surge como sugestão para analisar o desempenho destes pavimentos quanto à durabilidade e a resistência à derrapagem.
Resumo:
Esta pesquisa utilizou uma metodologia de ergonomia para diagnosticar a qualidade de vida percebida através de empregados em um grupo de empresas de comunicação em Porto Alegre-RS entre 2001 e 2003. A Análise Macroergônomica do Trabalho de Guimarães(1999) foi utilizada para entrevistar 80 trabalhadores, 10 gestores e 70 subordinados. A modalidade de entrevista foi semi estruturada com quatro perguntas, sendo que os gestores responderam uma quinta pergunta para relacionar com a fala dos subordinados. A todos os dados obtidos a partir das entrevistas foi atribuído um peso de importância, por função recíproca e posteriormente foram agrupados por similariedade. Os itens foram categorizados segundo os construtos ABCORE da Análise Macroergonômica do Trabalho de Guimarães(1999). Como ferramenta estatistíca utilizou-se a Análise da Variância - ANOVA não paramétrica. Houve uma comparação dos resultados obtidos com a Auditoria Operacional de RH de Fernandes(1996) que é um instrumento típico de medida de Qualidade de Vida no Trabalho. Comparou-se também com o Manual de Gestão de Pessoas do grupo de empresas. Concluiu-se que a percepção de Qualidade de Vida no trabalho pôde ser apreendida pela metodologia de Análise Macroergonômica do Trabalho de Guimarães(1999) e que as ferramentas de Qualidade de Vida no Trabalho podem ser complementares, especialmente, no que se refere à empresa e sua gestão Os resultados apontam para necessidades dos usuários no que diz respeito à organização do trabalho, mas por outro lado, há uma forte imagem interna da empresa. especialmente, no que concerne a benefícios que por vezes mascaram outras demandas dos trabalhadores. Para prosseguir com a investigação deste tema no grupo de empresas, sugeriu-se, como trabalho futuro, a elaboração de um questionário baseados nas demandas ergonômicas descortinadas e a participação efetiva dos trabalhadores em todas as etapas como prevê a Análise Macroergonômica do Trabalho de Guimarães(1999).
Resumo:
Faz revisão teórica dos modelos de value-at-risk (VAR). Revisa principais estudos anteriores sobre VAR no Brasil e no exterior. Testa o desempenho de cinco metodologias de VAR, a saber: metodologia Paramétrica com uso da Volatilidade Histórica, Paramétrica com uso da Volatilidade EWMA, Paramétrica• com uso da Volatilidade GARCH(1,1), Simulação Histórica e uma Metodologia Híbrida proposta por BOUDOUKH e taI (1998). Aplica as metodologias a carteiras teóricas compostas por proporções diversas de ações e títulos de renda fixa de 30 dias no mercado financeiro brasileiro. O trabalho encontra evidências da superioridade da Metodologia Híbrida com fator de caimento de 0,99 e da Simulação Histórica, sendo esta apenas marginalmente inferior, Estes resultados se coadunam com evidências encontradas nas séries em estudo de nãonormalidade, heterocedasticidade e autocorrelação
Resumo:
Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).
Resumo:
Estudos demonstraram a associação entre as empresas classe mundiais, ganhadoras dos Prêmios Nacionais de Qualidade em seus países, e o sucesso financeiro dessas organizações. Falta na literatura acadêmica, um elo demonstrado empiricamente a associação entre os modelos de Excelência e os critérios de performance socioambientais. Nosso estudo buscou entender o alinhamento entre os conceitos de Qualidade e Excelência com os conceitos de Responsabilidade Social e Sustentabilidade, determinando os elementos de interface e buscando inter-relações. A partir da aplicação de um modelo consagrado de mensuração do desempenho Sustentável no país, os Indicadores Ethos, em quatro empresas vencedoras do PNQ - Prêmio Nacional da Qualidade no Brasil. Comparando os resultados obtidos com o banco de dados do Instituto Ethos e suas melhores práticas, o nosso estudo buscou responder a pergunta se existe uma associação entre a busca da Qualidade Total e o desempenho Sustentável, ou seja, aquele distribuído com justeza entre o social, o ambiental e o econômico. Para isso, utilizamos uma ampla revisão bibliográfica e uma pesquisa de campo com quatro empresas ganhadoras do PNQ, com portes, localização e atividades representativas das organizações vencedoras. Os resultados foram comparados utilizando-se elementos da estatística não-paramétrica e apontam para um desempenho superior das empresas classe mundial em relação ao banco de dados do Instituto Ethos e equivalente às melhores práticas registradas no Instituto. Ademais, percebeu-se um alinhamento entre a evolução dos Critérios de Excelência da Fundação Nacional da Qualidade com os modelos mais atuais de Responsabilidade Social
Resumo:
O presente trabalho tem como principal objetivo testar a existência do fenômeno comumente descrito na teoria econômica como curva J que se caracteriza pela piora dos saldos comerciais no curto prazo após um episódio de depreciação real do câmbio. Dada a dificuldade na definição de eventos de depreciação/desvalorização do câmbio, ainda que os testes empíricos sejam efetuados ao longo do período de 1980 a 2005, serão utilizados três períodos específicos na análise descritiva em que a intensa variação positiva do câmbio real forneceu o cenário ideal para que a identificação do comportamento de uma possível deterioração transitória dos saldos comerciais fosse mais facilmente visualizado. Com base em 3(três) abordagens diferentes de testes econométricos, a evidência empírica sugere que o fenômeno da curva J não explica o comportamento da balança comercial após a ocorrência de tais episódios.
Resumo:
In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.
Resumo:
O trabalho pesquisou a importância dos recursos didáticos utilizados na disciplina de Matemática Financeira do Curso de Administração a Distância realizado pela Escola de Administração da Universidade Federal do Rio Grande do Sul, com base na percepção dos estudantes de uma das turmas. Os recursos instrucionais examinados foram: aulas gravadas em vídeo, exercícios, livro texto e comunicação professor/tutor-aluno através de “chats”. As variáveis pesquisadas foram confrontadas entre si e com situações análogas vivenciadas pelos respondentes em aulas presenciais. Examinou-se também a influência dos estilos de aprendizagem nas preferências dos alunos quanto aos recursos instrucionais utilizados. A pesquisa baseou-se em questionários respondidos pelos alunos utilizando-se basicamente da escala de Lickert. Foi adotado o Inventário de Estilos de Aprendizagem baseado no Modelo Experiencial de Aprendizagem de Kolb. Preferencialmente foi utilizada a prova estatística não-paramétrica de Kolmogorov-Smirnov para testar a aderência entre as amostras. O trabalho concluiu identificando preferência dos respondentes quanto a eficácia no aprendizado pelos exercícios práticos seguidos das aulas gravadas em vídeo e do livro texto. Constatou-se a importância da estrutura (planejamento e organização) da disciplina no atingimento dos resultados positivos. Ao final o trabalho recomendou aprofundamento da questão de comunicação entre professor, tutores e alunos especialmente quanto à utilização dos “chats”.
Resumo:
O presente estudo pretende avaliar o desempenho das Delegacias da Receita Federal através do estabelecimento de uma fronteira de eficiência paramétrica baseada nos custos, utilizando para tal um modelo estocástico que divide o ruído em dois componentes, sendo um aleatório e outro proveniente da ineficiência de cada unidade. O trabalho terá por base dados relativos aos anos de 2006 e 2008 em uma análise em corte transversal e visa avaliar a política pública de unificação dos órgãos estatais responsáveis pela arrecadação de tributos em nível Federal, a Secretaria da Receita Federal (SRF) com a Secretaria da Receita Previdenciária (SRP), ocorrida através da lei 11.457 de 16 de março de 2007. O objetivo principal da pesquisa é determinar se as unidades descentralizadas da Receita Federal, notadamente as Delegacias da Receita Federal estão operando com eficiência, na tarefa de arrecadar tributos, em função dos recursos colocados a disposição para execução de suas atividades. Na presente pesquisa o produto da unidade a ser avaliado é a arrecadação, dentre as inúmeras atividades realizadas pelo órgão, no sentido de proporcionar ao Estado recurso para implantação de Políticas Públicas. O resultado encontrado indica que as regiões onde existe um grande número de empresas optantes pelo regime de tributação do SIMPLES, bem como as que possuem em sua jurisdição empresas consideradas DIFERENCIADAS pelo seu porte, provocam um aumento nos custos das Delegacias. As unidades que se encontram nas capitais dos Estados melhoraram o seu desempenho após a unificação. Além disso, uma proporção maior de Auditores Fiscais dentro da Delegacia em relação ao total de servidores reduz a ineficiência. O trabalho espera contribuir na avaliação desse novo modelo de gestão implantado na administração tributária federal no país.
Resumo:
O trabalho procura investigar a existência de relação de cointegração entre a Taxa de Câmbio Real (CRER), Passivo Externo Líquido (PEL), Termos de Troca (TOT) e um fator de produtividade (BS), utilizando um teste não paramétrico proposto por Bierens (1997), aplicado a uma amostra de dados para EUA e Brasil que cobre o período de 1980 a 2010. Para os EUA, é encontrada evidência da influência das variáveis elencadas. No caso brasileiro verifica-se pouca relevância da variável BS, sendo as demais variáveis presentes no vetor de cointegração.