957 resultados para modelo de cálculo


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gestión de riesgo es aplicar estrategias para evitar los mismos o reducir los costos generados por la ocurrencia de éstos, dicha gestión requiere de un análisis para identificarlos y medirlos en su probabilidad e impacto, planificar y poner en práctica estrategias de control para mitigarlos manteniendo una constante retroalimentación. El presente trabajo, titulado “Reajuste al modelo de aprobación y asignación de sobregiros para gestión de riesgos en el Banco de la Producción.”, se basa en el riesgo de crédito que asume el prestador, derivado de la posibilidad de que el prestatario incumpla la obligación y que puede ser mitigado mediante el uso de la valoración crediticia del sujeto de crédito o en el estudio de los ingresos del sujeto y su comportamiento o historial crediticio. Banco de la Producción cuenta con un modelo de aprobación y determinación de montos máximos de sobregiros para los cuenta corrientistas el cual, le permite un análisis de cliente con el fin de determinar la probabilidad de incumplimiento para la aprobación del sobregiros y considerar otras variables que le permiten un cálculo del monto máximo de autorización del sobregiro; todo esto va en búsqueda de la mitigación de determinado riesgo de crédito. Considerando que dichos modelos deben ser revisados y actualizados continuamente para garantizar la mitigación del riesgo de crédito, se realizó esta investigación mediante un procedimiento estadístico denominado Backtesting, el cual “es utilizado para validar la calidad y precisión de un modelo, mediante la comparación de los resultados reales con las medidas de riesgo generadas por el modelo” y de esta manera poder determinar las desviaciones del mismo y proponer las respectivas mejoras. A través de la aplicación del Backtestig, se obtuvo un ratio de la idea que se prueba, la frecuencia de oportunidad bajo las condiciones establecidas, el promedio de posiciones ganadoras y perdedores de esta prueba.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La crisis económica mundial del año 2008 y 2009 tuvieron sus consecuencias dentro de la economía ecuatoriana, principalmente al ser una economía dolarizada y porque dependemos fuertemente del precio del petróleo, ya que la exportación de dicho bien es la principal fuente de divisas para el país. En dicho período se vivió caídas importantes en el precio de dicho commodity, lo cual derivó en una contracción de las captaciones del sistema financiero, razón por la cual las entidades tuvieron que precautelar su posición para no verse afectado por la coyuntura de aquella época. Considerando que en la actualidad hay varios modelos de valoración del riesgo, se optó por probar en una entidad local una adaptación del modelo “Suficiencia de Capital y Riesgo de Crédito” llamado comúnmente Cyrce de autoría del mexicano Javier Márquez Diez-Canedo a la coyuntura de la liquidez de dicha entidad, por lo que se adaptaron los requerimientos de cálculo de acuerdo a la cuantificación del riesgo de liquidez. Los resultados obtenidos servirán para evaluarel nivel de cobertura de liquidez necesario y se pondrá en consideración algunas prácticas que le van a permitir a la institución delimitar su apetito al riesgo y como este debe ser gestionado ante eventos que sugieran la aplicación de un plan de contingencia de liquidez.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los modelos de medición de riesgo se han convertido en piezas fundamentales en la administración del riesgo de crédito en las entidades financieras; al respecto, si bien, la normativa de riesgo de crédito expedida por la Superintendencia de Bancos aborda conceptos fundamentales como: pérdida esperada, probabilidad de incumplimiento, nivel de exposición del riesgo de crédito, severidad de la pérdida, tasa de recuperación, y promueve a que las entidades conformen bases de datos para la cuantificación del riesgo de crédito; se observa que dichas disposiciones no han sido suficientes ni entendidas. En este contexto, el presente estudio de investigación contiene un análisis de los lineamientos emanados por el Comité de Supervisión Bancaria de Basilea para la cuantificación del riesgo de crédito; un análisis histórico de la evolución de la cartera de consumo en el sistema bancario ecuatoriano desde el año 2002 hasta diciembre de 2014, así como de los indicadores de morosidad y cobertura. Se realiza un repaso de las disposiciones de la normativa para la gestión del riesgo de crédito, y de la norma de calificación de activos de riesgo en la parte pertinente a la calificación de créditos de consumo; y se analiza y compara con los avances establecidos en la norma de riesgo de crédito, contemplado en el denominado Sistema de Administración de Riesgo de Crédito (SARC) definido por la Superintendencia Financiera de Colombia. Así también, se definen los aspectos mínimos a considerar en la construcción de modelos internos para créditos de consumo, y se enfatiza en el análisis de 15 bancos privados para el cálculo de matrices de transición, a fin de establecer los días a partir del cual el ente de control podría contemplar la definición del default, aspectos que se fundamentan en Anexo 2; se aborda también la importancia que tiene para preservar la solvencia de las entidades, la determinación adecuada no únicamente de las pérdidas esperadas, sino también de las pérdidas inesperadas. Se concluye con un análisis de los lineamientos mínimos que una entidad financiera debe considerar para la construcción de un modelo score sea de aprobación o de comportamiento, basado en las mejores prácticas internacionales, y de fácil entendimiento por parte de la alta gerencia y unidades de riesgos, mismos que se traducen en procedimientos o lineamientos que se sugiere sean acogidas por el ente de control, y están expuestos en Anexos 1, 3, 4 y 5.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho o método LTSN é utilizado para resolver a equação de transporte de fótons para uma placa plana heterogênea, modelo de multigrupo, com núcleo de espalhamento de Klein-Nishina, obtendo-se o fluxo de fótons em valores discretos de energia. O fluxo de fótons, juntamente com os parâmetros da placa foram usados para o cálculo da taxa de dose absorvida e do fator de buildup. O método LTSN consiste na aplicação da transformada de Laplace num conjunto de equações de ordenadas discretas, fornece uma solução analítica do sistema de equações lineares algébricas e a construção dos fluxos angulares pela técnica de expansão de Heaviside. Essa formulação foi aplicada ao cálculo de dose absorvida e ao fator de Buildup, considerando cinco valores de energia. Resultados numéricos são apresentados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é o cálculo modal da resposta impulso distribu ída de uma viga descrita pela equação de Timoshenko e das vibrações forçadas, devidas a influência de cargas externas. Os modos vibratórios foram obtidos com o uso da base dinâmica, gerada por uma resposta livre e suas derivadas. Esta resposta é caracterizada por condições iniciais impulsivas. Simulações foram realizadas para os modos, a resposta impulso distribuída e vibrações forçadas em vigas apoiadas em uma extremidade e na outra livre, fixa, deslizante ou apoiada, sujeitas a cargas oscilatórias espacialmente concentradas ou distribuídas através de pulsos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho estudamos modelos teóricos que descrevem sistemas eletrônicos fortemente correlacionados, em especial o modelo t-J, e suas aplicações a compostos de óxidos de cobre, notadamente os compostos que apresentam supercondutividade de alta temperatura crítica e o composto Sr2CuO2Cl2. No primeiro capítulo do trabalho, fazemos uma exposição de três modelos que envolvem o tratamento das interações elétron-elétron, que são os modelos de Hubbard de uma banda, o modelo de Heisenberg e o modelo t-J. Na dedução deste último fazemos uma expansão canônica do hamiltoniano de Hubbard, no limite de acoplamento forte, levando-nos a obter um novo hamiltoniano que pode ser utilizado para descrever um sistema antiferromagnético bidimensional na presen- ça de lacunas, que é exatamente o que caracteriza os compostos supercondutores de alta temperatura crítica na sua fase de baixa dopagem.Após termos obtido o hamiltoniano que descreve o modelo t-J, aplicamos à este uma descrição de polarons de spin, numa representação de holons, que são férmions sem spin, e spinons, que são bósons que carregam somente os graus de liberdade de spin. Utilizando uma função de Green para descrever a propagação do polaron pela rede, obtemos uma equação para a sua autoenergia somando uma série de diagramas de Feynman, sendo que para este cálculo utilizamos a aproxima ção de Born autoconsistente[1]. Do ponto de vista numérico demonstramos que a equação integral de Dyson resultante do tratamento anterior não requer um procedimento iterativo para sua solução, e com isto conseguimos trabalhar com sistemas com grande número de partículas. Os resultados mostram, como um aspecto novo, que o tempo de vida média do holon tem um valor bastante grande no ponto (π,0 ) da rede recíproca, perto da singularidade de Van Hove mencionada na literatura[2]. Este aspecto, e suas implicações, é amplamente discutido neste capítulo. No capítulo 3 estudamos o modelo estendido t-t'-J, com tunelamento à segundos vizinhos e a incorporação dos termos de três sítios[3]. Fazemos a mesma formulação do capítulo anterior, e discutimos as aplicações dos nossos resultados ao óxido mencionado anteriormente. Finalmente, no último capítulo apresentamos uma aplicação original do modelo t-J à uma rede retangular, levemente distorcida, e demonstramos que os resultados do capítulo 3 são reproduzidos sem necessidade de introduzir termos de tunelamento adicionais no hamiltoniano. Esta aplicação pode se tornar relevante para o estudo das fases de tiras encontradas recentemente nesses materiais de óxidos de cobre.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, foram analisadas, implementadas e mostradas as características de uma interface com estrutura de programação genérica para o ambiente Windows, criando facilidades de rapidez, confiabilidade e a apresentação de resultados aos usuários do sistema matemático Maple na criação e uso de aplicações matemáticas. A interface utilizou como modelo de implementação cálculos modais de vigas clássicas de Euler-Bernoulli. O usuário encontra, em um único sistema, cálculo para vigas clássicas, terá uma entrada de dados facilitada de variáveis que serão substituídas automaticamente no programa fonte da viga e a geração de resultados em um ambiente amigável com dados e gráficos mostrados de forma organizados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é a introdução e desenvolvimento de uma metodologia analítico-simbólica para a obtenção de respostas dinâmicas e forçadas (soluções homogêneas e não homogêneas) de sistemas distribuídos, em domínios ilimitados e limitados, através do uso da base dinâmica gerada a partir da resposta impulso. Em domínios limitados, a resposta impulso foi formulada pelo método espectral. Foram considerados sistemas com condições de contorno homogêneas e não homogêneas. Para sistemas de natureza estável, a resposta forçada é decomposta na soma de uma resposta particular e de uma resposta livre induzida pelos valores iniciais da resposta particular. As respostas particulares, para entradas oscilatórias no tempo, foram calculadas com o uso da fun»c~ao de Green espacial. A teoria é desenvolvida de maneira geral permitindo que diferentes sis- temas evolutivos de ordem arbitrária possam ser tratados sistematicamente de uma forma compacta e simples. Realizou-se simulações simbólicas para a obtenção de respostas dinâmicas e respostas for»cadas com equações do tipo parabólico e hiperbólico em 1D,2D e 3D. O cálculo das respostas forçadas foi realizado com a determinação das respostas livres transientes em termos dos valores iniciais das respostas permanentes. Foi simulada a decomposição da resposta forçada da superfície livre de um modelo acoplado oceano-atmosfera bidimensional, através da resolução de uma equação de Klein-Gordon 2D com termo não-homogêneo de natureza dinâmica, devido a tensão de cisalhamento na superfície do oceano pela ação do vento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o objetivo deste estudo é desenvolver um modelo avaliação fundamentado na teoria das opções reais, que permita avaliar a garantia de recomr~::. de franquias oferecida por alguns franqueadores. A metodologia das opções reais procura entender os métodos de avaliação de ativos financeiros a ativos não-financeiros, utilizando-~·;. principalmente, de metodologias amplamente conhecidas para o cálculo de opções financeiras, como a fórmula desenvolvida por Black-Scholes-Merton e o modelo de precificação 'Jinomial desenvolvido por Cox-Ross-Rubinstein. Nos processos de avaliação tradicionalmente realizados no contexto das finanças corporativas. as avaliações financeiras costurr:~lramente não incorporam variáveis econômico-financeiras com características de opções. bem como não valorizam a possibilidade de se pagar um prêmio para ter o direito de decidir. posteriormente, se a empresa deve ou não desenvolver um projeto ou realizar um investimento. O~tra situação, normalmente nào considerada pelas técnicas tradicionais de avaliação de negócios e de projetos, é o direito de abandonar um projeto; este direito de abandono é denominado opção de abandono. na temlinologia das opções reais. A metodologia das opções reais visa complementar os métodos tradicionais de avaliação de empresas e/ou de projetos, buscando identificar e precificar a obtençào de direitos de decidir ex poslJelclo. A metodologia das opções reais pode também ser aplicada à valorização do patrimônio líquido das empresas, aplicando o conceito de que o investidor se beneficia do fato de seu prejuízo limitar-se ao investimento já realizado, em caso de liquidação da empresa. podendo, por outro lado, beneficiar-se de uma possível valorização (lei infinitum do patrimônio líquido da empresa. A opção de abandono é tecnicamente uma opção de venda. podendo-se aplicar a metodologia das opções reais para situações em que o investidor podedecidir. em algum tempo futuro. se lhe é mais conveniente continuar no seu negócio ou abandoná-lo conforme condições previamente estabelecidas. Esta assimetria de direitos, típica das oI': :.:s financeiras, é assim incorporada ao processo de valorização de empresas e de proJetos. ~;:-egando variáveis econômico-financeiras não consideradas pelos métodos tradicic:1ais .:.: avaliação que se haseiam, primordialmente, no cálculo do valor presente líquido dos :·.JXOS de caixa descontados. Este trabalho está estruturado em quatro capítulos: O Primeiro Capítulo trata da Introdução aos temas em estudo. cc:"'.tendo uma explicação da importância da Teoria das Opções Reais e de sua inserção no un:·,erso de metodologias de avaliação de projetos e de investimentos. A Teoria das Opções R~ais é associada ao contexto das relações existentes entre franqueadores e franqueados. mais especificamente, em relação à garantia de recompra que alguns franqueadores ofer~cem aos seus fi'anqueados; O Segundo Capítulo explica a Metodologia utilizada no desen\"oivimento deste estudo; O Terceiro Capítulo trata do Referencial Teórico, que explica. aIos princípios básicos da Teoria das Opções. mostrando as principais técnicas já desen\"ohtdas para o cálculo do valor justo de opções; b) os conceitos de avaliação de empresas C) a Teoria das Opções Reais; d) a interaçào entre estes conceitos; e e) os conceitos de franquia. O Quarto Capítulo desenvolve um Modelo de Garantia de Recompra, estabelecendo um referencial teórico-prático que identifica como esta situação comercial pode ser analisada sob a ótica da Teoria das Opções Reais. É descrito um caso prático. com sua solução específica através de diversas técnicas diferentes, mostrando as abordagens disponíveis na Teoria das Opções Reais; e, Ao final, apresentamos nossas conclusões.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese de conclusão do curso de doutoramento em Administração de Empresas, a qual tem por título Cálculo do preço de venda como fator de competitividade para produtos fabricados por micro e pequenas indústrias, tem como objetivo apresentar e validar um modelo, o qual consiste em uma equação matemática. O referido modelo está fundamentado na teoria contábil e os preços de venda dos produtos, através dele calculados, deverão ser interpretados pelas empresas, suas fabricantes, como sendo os menores possíveis de serem praticados, capazes de conduzi-las aos seus objetivos de resultados previamente estabelecidos, desde que esses produtos sejam fabricados e vendidos por essas indústrias dentro dos padrões de tempos de produção e em quantidades periódicas previamente orçadas e consideradas no modelo no momento das suas precificações, bem como sem investimentos adicionais aos já estabelecidos. Portanto, esses preços são classificados como sendo os competitivos desses produtos, em vista da realidade competitiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho propõe para o cálculo VaR o modelo de simulação histórica, com os retornos atualizados pela volatilidade realizada calculada a partir de dados intradiários. A base de dados consiste de cinco ações entre as mais líquidas do Ibovespa de distintos segmentos. Para a metodologia proposta utilizamos duas teorias da literatura empírica – simulação histórica ajustada e volatilidade realizada. Para análise e verificação do desempenho da metodologia proposta utilizamos o Teste de Kupiec e o Teste de Christoffersen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho passa por entender o impacto dos fatores não observáveis na escolha do sistema de aquecimento de água na intensidade do consumo de eletricidade domiciliar. Para isto será aplicado um modelo discreto-contínuo para entender o efeito da escolha discreta do tipo de aquecimento de água domiciliar sobre o consumo de energia elétrica do mesmo domicílio, escolha contínua. Primeiramente foi usado um modelo LOGIT e por meio deste foram entendidos os fatores que influenciam a escolha discreta do consumidor. Com os resultados encontrados na escolha discreta, temos em um segundo momento que constatar se esta escolha é significante para a intensidade do consumo de energia elétrica. Os resultados obtidos usando o método de Hausmann demonstraram que ignorar este fator (escolha discreta) pode levar a estimadores viesados para a parte contínua do modelo, ou seja, a escolha discreta é significante e ajuda a explicar o consumo de energia elétrica domiciliar. Os resultados mostraram que temos diferenças de até 10% no estimador obtido quando ignoramos este fator. É importante notar que este tipo de falha no cálculo, pode trazer problemas na decisão e na quantidade de investimento de um país. Além disso, os resultados reforçaram e ratificaram o trabalho desenvolvido por Dubbin e McFadden (1984) que foram usados como base para o estudo.