824 resultados para Cálculo algébrico
Resumo:
El presente estudio está dirigido al análisis del cálculo de volatilidad de la norma de liquidez estructural del sistema financiero ecuatoriano, tomando en consideración, que hace más de una década que se emitió la respectiva normativa, no ha sufrido cambios de fondo, no obstante de que el riesgo de liquidez al que se encuentran expuestas las instituciones financieras, y en particular la banca privada en el Ecuador materia de este estudio, es el de mayor sensibilidad e impacto en la sociedad. Dentro de este contexto, se realizó un análisis del marco teórico de la volatilidad, con la finalidad de identificar, las metodologías de valor en riesgo utilizadas, la forma de cálculo aplicado en países vecinos como Perú y Colombia y, la simulación de diferentes escenarios de horizontes de tiempo e intervalos utilizados para el cálculo de rendimientos, esto último, con el propósito de justificar un mayor requerimiento de liquidez, en resguardo de las amenazas a las que se encuentra expuesta la banca privada, por el retiro de recursos de los depositantes y de eventos que le pueden impactar adversamente del entorno económico; adicionalmente, se analizan las distribuciones de frecuencias de las series de activos líquidos y fuentes de fondeo para el período enero 2007 a septiembre 2014, con el propósito de identificar, si cumplen con la teoría de límite central, y descartar de que exista el fenómeno de heterocedasticidad condicionada, para ello necesariamente, hubo que aplicar los modelos Arima y Garch. Concluye el estudio, con la cuantificación de pérdidas esperadas, propuesto a través de un ajuste al cálculo de volatilidad, estimado a través de la Simulación de Montecarlo y de la incorporación de un riesgo adicional identificado en el rubro de activos líquidos y de aspectos que debería incorporar la normativa, a efectos de establecer umbrales de riesgo e indicadores que permitan realizar un monitoreo prudencial de los componentes de la liquidez de los bancos privados y establecer resguardos para épocas en decadencia.
Resumo:
O tema desta dissertação de mestrado é o estudo da Customização em Massa (CM) com vistas à elaboração de um índice que meça a viabilidade da implantação de sistemas de manufatura customizados. A CM vem sendo identificada por um número crescente de organizações como uma importante estratégia competitiva. A etapa inicial desta dissertação foi a revisão bibliográfica sobre CM, Flexibilidade na Manufatura e Desdobramento da Função Qualidade (QFD), que constituem os seus temas principais. Na segunda etapa foi elaborada a metodologia que propõe o cálculo de um indicador de viabilidade de customização de produtos manufaturados. Como ferramenta para a elaboração deste índice, utilizou-se o QFD. Através do emprego da metodologia proposta é possível listar e ponderar as demandas de customização pelos clientes e, então, avaliar a viabilidade de se customizar os elementos desejados pelo cliente em termos de produto e processo (viabilidade tecnológica e flexibilidade de manufatura). Na última etapa a metodologia proposta nesta dissertação foi aplicada através de um estudo de caso, permitindo-se o esclarecimento da realização das suas etapas.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
O objetivo principal deste trabalho é apresentar um método recursivo para a determinação da resposta forçada de sistema de segunda ordem na forma de uma íntegra de concolução, proveniente da utilização de propriedades de transição da resposta impulso de tais sistemas. Descrevem-se também diversos métodos analíticos e numéricos desenvolvidos para o cálculo da resposta forçada, bem como as limitações de cada método. As vantagens do método recursivo proposto são notáveis já que não é requerido o cálculo de autovalores das matrizes nem a redução à primeira ordem, e nem o uso de hipóteses adicionais sobre natureza dos coeficientes matriciais do sistema. Como aplicação do método proposto, considera-se o cálculo da resposta dinâmica de estruturas flexíveis sujeitas a excitações arbitrárias tais como terremotos.
Resumo:
O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
Combinando métodos computacionais da eletrostática e dinâmica molecular, este trabalho teve como objetivo descrever processos de solvatação em sistemas quimicamente importantes. Foram obtidas propriedades termodinâmicas necessárias para o entendimento do processo de solvatação. Estão descritos e testados modelos para descrever a interação soluto-solvente, possibilitando, assim, aprimorar a descrição físico-química dos processos de solvatação. Utilizaram-se programas desenvolvidos em nosso grupo e programas comerciais que permitem os cálculos de dinâmica molecular e química quântica. Uma nova abordagem para o cálculo de energia livre de solvatação foi desenvolvida proporcionando a obtenção acurada e eficiente dessa propriedade, dentro do enfoque da dinâmica molecular. Nessa nova abordagem, novas metodologias para a geração de cavidades moleculares foram propostas e avaliadas. As energias livres de solvatação obtidas estão em boa concordância com os valores experimentais.
Resumo:
Neste trabalho é realizada uma análise crítica sobre as formas de dimensionamento de estruturas de chapa dobrada, apresentando as metodologias utilizadas pelas principais normas modernas de cálculo, juntamente com metodologias não convencionais. Para realizar dita análise concentrou se a atenção num tipo de perfil simples (perfis não enrijecidos), e submetido a dois tipos de carregamento: carga axial concentrada no centro de gravidade; barra trabalhando como viga em balanço com carga aplicada no centro de corte. Foi realizado um estudo comparativo, entre as normas de cálculo NBR 14762, AISI e Eurocode 3, com outros métodos de dimensionamento, que são: o método direto desenvolvido por Schafer (1997); e duas formulações de análise por elementos finitos: uma considerando a carga de flambagem elástica; e outra empregando uma análise não linear física e geométrica, para perfis submetidos à compressão centrada e à flexão. Neste trabalho realizou-se um estudo paramétrico, registrando em gráficos e tabelas a influência de parâmetros tais como: comprimento do elemento analisado; da relação entre a alma e a mesa; da relação alma e a espessura. Através destes gráficos é possível observar as diversas formas de colapso (flambagem local, flambagem global, colapso plástico entre outras) se apresentando como críticas e interagindo entre si. Realizaram-se também dois experimentos de perfis submetidos à flexão, com o objetivo de verificar a grandeza dos valores obtidos através das diversas metodologias de cálculo. Para aplicação prática dos conceitos e métodos apresentados fez-se a verificação do dimensionamento de uma estrutura utilizada como prateleira em um almoxarifado de uma empresa metalúrgica situada na grande Porto Alegre, a qual apresentou flambagem lateral de seus elementos horizontais.
Resumo:
O custo unitário básico (CUB), foi criado em função da Lei n° 4.591 (BRASIL, 1964), que encarregou a Associação Brasileira de Normas Técnicas (ABNT), através do Banco Nacional de Habitação (BNH), de definir critérios e normas para cálculo de custos unitários de construção pelos Sindicatos das Indústrias da Construção Civil (SINDUSCON) nos Estados da Federação, para uso dos incorporadores imobiliários nas tratativas iniciais quando da viabilização junto ao Sistema Financeiro de Habitações. Com a publicação da Norma Brasileira NB 140 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1965), ficou definido a metodologia de cálculo dos CUB para projetos-padrão de prédios habitacionais. A finalidade destes CUB é auxiliar na avaliação dos custos de incorporações imobiliárias, antes do lançamento, quando os incorporadores não dispõem dos projetos completos. A metodologia de cálculo destes CUB sofreu uma única reformulação ao longo destes quase quarenta anos, quando da edição da NBR 12.721 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1992). Em 1999, recebeu anexo complementar, que não fez qualquer atualização na metodologia de cálculo dos CUB, apenas estendeu a apuração destes custos para edifícios comerciais, galpões industriais e casas populares Este trabalho realizou a verificação e validação do modelo de cálculo dos CUB para prédios habitacionais, fazendo comparações entre os valores apurados pela técnica recomendada na Norma e os obtidos diretamente nos orçamentos discriminados que deram origem à metodologia de cálculo dos CUB, utilizando preços unitários de insumos no período de janeiro de 1993 a dezembro de 2000. Ao final concluiu-se que o modelo de cálculo dos CUB necessita de uma profunda reformulação para readquirir a propriedade fundamental de sua caracterização que é a de substituir o cálculo dos custos com o uso do orçamento discriminado dos projetos-padrão.
Resumo:
Neste trabalho, foram analisadas, implementadas e mostradas as características de uma interface com estrutura de programação genérica para o ambiente Windows, criando facilidades de rapidez, confiabilidade e a apresentação de resultados aos usuários do sistema matemático Maple na criação e uso de aplicações matemáticas. A interface utilizou como modelo de implementação cálculos modais de vigas clássicas de Euler-Bernoulli. O usuário encontra, em um único sistema, cálculo para vigas clássicas, terá uma entrada de dados facilitada de variáveis que serão substituídas automaticamente no programa fonte da viga e a geração de resultados em um ambiente amigável com dados e gráficos mostrados de forma organizados.
Resumo:
O objetivo desse trabalho é calcular o subsídio implícito aos produtores de arroz agulhinha, feijão preto, milho e soja, proveniente da política de preços mínimos, através da avaliação dos prêmios das opções de venda que correspondem à política de preços mínimos para essas commodities.
Resumo:
Este trabalho cuida de avaliar a eficiência do mercado de opções de ações da bolsa de valores de são Paulo (BOVESPA). A avaliação é feita através do modelo Black-Scholes, e traz como principal novidade diversas estimativas de volatilidade. Portanto torna-se um teste conjunto da eficiência do mercado, do modelo Black-Scholes e das diversas estimativas de volatilidade. O objetivo principal ~ determinar a volatilidade que gera o melhor retorno , isto é , aponta a maior ineficiência do mercado. Foram utilizadas opções de Paranapanema-pp e Petrobr's-pp no per(odo de novembro de 1987 a outubro de 1988. Dois testes de eficiência foram realizados para cada volatilidade estimada . Em ambos observou-se que o mercado é ineficiente, e no segundo obtivemos evidência de que uma das estimativas de volatilidade gera um retorno maio
Resumo:
O presente trabalho tem por objetivo descrever, avaliar comparar as metodologias analítica da simulação Monte Cario para cálculo do Value at Risk (Valor em Risco) de instituições financeiras de empresas. Para comparar as vantagens desvantagens de cada metodologia, efetuaremos comparações algébricas realizamos diversos testes empíricos com instituições hipotéticas que apresentassem diferentes níveis de alavancagem de composição em seus balanços, que operassem em diferentes mercados (consideramos os mercados de ações, de opções de compra de títulos de renda fixa prefixados).