1000 resultados para Finanças – Modelos matemáticos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Utilizando dados financeiros brasileiros do Ibovespa, testa-se a validade dos modelos de valor presente (MVP) no mercado de ações. Estes modelos relacionam o preço de uma ação ao seu fluxo de caixa futuro esperado (dividendos) trazido a valor presente utilizando uma taxa de desconto constante ou variante ao longo do tempo. Associada a estes modelos está a questão da previsibilidade dos retornos num contexto de expectativas racionais. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Autorregressões Vetoriais. Os resultados empíricos corroboram, em grande medida, o MVP para o Ibovespa brasileiro, pois há uma igualdade estatística entre a previsão ótima do mercado para o spread do equilíbrio de longo prazo e seus valores observados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, discutimos o movimento de uma macromolécula carregada em um fluido ionizado. A interação do campo elétrico é descrita pela equação de Poisson-Boltzmann acoplada às equações governantes para a dinâmica do fluido e às equações dinâmicas da partícula. Uma formulação fraca é introduzida no caso em que o domínio ocupado pelo fluido é finito e um teorema de existência de soluções fracas, local em tempo, é estabelecido. Dois modelos são considerados: fluxos não-estacionários e estacionários. No primeiro caso, a hidrodinâmica do sistema é governada pelas equações de Navier-Stokes, considerando-se um termo forçante relacionado ao potencial elétrico; no segundo caso, uma velocidade de deslizamento, a qual depende não linearmente sobre os potenciais, é introduzida como uma condição de contorno para um problema estacionário de Stokes. O caso de um fluido ocupando uma região infinita é também discutido supondo-se uma hipótese de aproximação sobre o campo elétrico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O processo decisório em finanças é um tópico de estudo importante e que tem atraído o interesse de muitos acadêmicos e executivos. A importância da decisão financeira nas empresas pode ser demonstrada pelas posições hierárquicas ocupadas pelos profissionais com treinamento em finanças. Os desenvolvimentos teóricos não foram uniformes em todas as áreas da tomada de decisão financeira. Infelizmente a área de administração de capital de giro, responsável por muitos insucessos empresariais, aparentemente não foi suficientemente tratada na literatura financeira. Para a empresa o capital de giro no sentido amplo representa o sangue que circula pelas várias fases do ciclo operacional. E o capital de giro que dá liquidez financeira a empresa, que limita sua potencialidade em aumentar o faturamento. A administração do capital de giro está intimamente ligada a todo o processo de geração de lucro da empresa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata da apresentação de modelos para classificação de empresas, quanto à condição de solvência, para fins de concessão de crédito. Aborda aspectos conceituais e teóricos necessários à caracterização da função creditícia como uma função financeira e apresenta os modelos aplicáveis para empresas comerciais e industriais, sendo tais modelos suportados por confirmações empíricas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho fazemos um resumo de alguns artigos que tratam de equilíbrio geral dinâmico com custos de default. Focamos no estudo dos modelos de Kehoe e Levine (1993) e de Alvarez e Jermann (2000). Também descrevemos algumas adaptações do modelo de Alvarez e Jermann, como os trabalhos de Hellwig e Lorenzoni (2009) e de Azariadis e Kaas (2008), e comparamos os resultados desses modelos com os de Huggett (1993), no qual os mercados são exogenamente incompletos. Finalmente, expomos uma falha no algoritmo computacional sugerido por Krueger e Perry (2010) para se computar os equilíbrios estacionários de economias como as de Alvarez e Jermann (2000).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese é composta de três artigos sobre finanças. O primeiro tem o título "Nonparametric Option Pricing with Generalized Entropic Estimators " e estuda um método de apreçamento de derivativos em mercados incompletos. Este método está relacionado com membros da família de funções de Cressie-Read em que cada membro fornece uma medida neutra ao risco. Vários testes são feitos. Os resultados destes testes sugerem um modo de definir um intervalo robusto para preços de opções. Os outros dois artigos são sobre anúncios agendados em diferentes situações. O segundo se chama "Watching the News: Optimal Stopping Time and Scheduled Announcements" e estuda problemas de tempo de parada ótimo na presença de saltos numa data fixa em modelos de difusão com salto. Fornece resultados sobre a otimalidade do tempo de parada um pouco antes do anúncio. O artigo aplica os resultados ao tempo de exercício de Opções Americanas e ao tempo ótimo de venda de um ativo. Finalmente o terceiro artigo estuda um problema de carteira ótima na presença de custo fixo quando os preços podem saltar numa data fixa. Seu título é "Dynamic Portfolio Selection with Transactions Costs and Scheduled Announcement" e o resultado mais interessante é que o comportamento do investidor é consistente com estudos empíricos sobre volume de transações em momentos próximos de anúncios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This article refers to a research which tries to historically (re)construct the conceptual development of the Integral and Differential calculus, taking into account its constructing model feature, since the Greeks to Newton. These models were created by the problems that have been proposed by the history and were being modified by the time the new problems were put and the mathematics known advanced. In this perspective, I also show how a number of nature philosophers and mathematicians got involved by this process. Starting with the speculations over scientific and philosophical natures done by the ancient Greeks, it culminates with Newton s work in the 17th century. Moreover, I present and analyze the problems proposed (open questions), models generated (questions answered) as well as the religious, political, economic and social conditions involved. This work is divided into 6 chapters plus the final considerations. Chapter 1 shows how the research came about, given my motivation and experience. I outline the ways I have gone trough to refine the main question and present the subject of and the objectives of the research, ending the chapter showing the theoretical bases by which the research was carried out, naming such bases as Investigation Theoretical Fields (ITF). Chapter 2 presents each one of the theoretical bases, which was introduced in the chapter 1 s end. In this discuss, I try to connect the ITF to the research. The Chapter 3 discusses the methodological choices done considering the theoretical fields considered. So, the Chapters 4, 5 and 6 present the main corpus of the research, i.e., they reconstruct the calculus history under a perspective of model building (questions answered) from the problems given (open questions), analyzing since the ancient Greeks contribution (Chapter 4), pos- Greek, especially, the Romans contribution, Hindus, Arabian, and the contribution on the Medium Age (Chapter 5). I relate the European reborn and the contribution of the philosophers and scientists until culminate with the Newton s work (Chapter 6). In the final considerations, it finally gives an account on my impressions about the development of the research as well as the results reached here. By the end, I plan out a propose of curse of Differential and Integral Calculus, having by basis the last three chapters of the article

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Engenharia de Produção - FEB

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Matemática Universitária - IGCE

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este estudio, englobado dentro del campo de la investigación operacional en aeropuertos, se considera el problema de la optimización de la secuencia de descontaminación de nieve de los tramos que componen el área de maniobras de un aeropuerto, denominado RM-AM. Este problema se enfrenta a la optimización de recursos limitados para retirar la nieve de las calles de rodadura y pistas, dejándolas en un estado aceptable para la operación de aeronaves. El campo de vuelos se divide en subconjuntos de tramos significativos para la operación y se establecen tiempos objetivo de apertura al tráfico de aeronaves. Se desarrollan varios algoritmos matemáticos en los que se proponen distintas funciones objetivo, como son la hora de finalización del proceso, la suma de las horas de finalización de cada tramo, o el retraso entre la hora estimada y la hora de finalización. Durante este proceso, se van introduciendo restricciones operativas relativas al cumplimiento de objetivos operativos parciales aplicados a las zonas de especial interés, o relativas a la operación de los equipos de descontaminación. El problema se resuelve mediante optimización basada en programación lineal. Los resultados de las pruebas computacionales se hacen sobre cinco modelos de área de maniobras en los que va creciendo la complejidad y el tamaño. Se comparan las prestaciones de los distintos algoritmos. Una vez definido el modelo matemático para la optiamización, se propone una metodología estructurada para abordar dicho problema para cualquier área de manobras. Se define una estrategia en la operación. Se acomete el área de maniobras por zonas, con la condición de que los subconjuntos de tramos significativos queden englobados dentro de una sola de estas zonas. El problema se resuelve mediante un proceso iterativo de optimización aplicado sucesivamente a las zonas que componen el área de maniobras durante cada iteración. Se analiza la repercusión de los resultados en los procesos DMAN, AMAN y TP, para la integración de los resultados en el cálculo de TSAT y EBIT. El método se particulariza para el caso del área de maniobras del Aeropuerto Adolfo Suárez Madrid Barajas. ABSTRACT This study, which lies within the field of operations research in airports, considers the optimisation of the sequence for clearing snow from stretches of the manoeuvring area of an airport, known as RM-AM. This issue involves the optimisation of limited resources to remove snow from taxiways and runways thereby leaving them in an acceptable condition for operating aircraft. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are established during which these are open to aircraft traffic. The study contains several mathematical models each with different functions, such as the end time of the process, the sum of the end times of each stretch, and gap between the estimated and the real end times. During this process, we introduce different operating restrictions on partial fulfilment of the operational targets as applied to zones of special interest, or relating to the operation of the snow-clearing machines. The problem is solved by optimisation based on linear programming. Computational tests are carried out on five distinct models of the manoeuvring area, which cover increasingly complex situations and larger areas. The different algorithms are then compared to one other. Having defined the mathematical model for the optimisation, we then set out a structured methodology to deal with any type of manoeuvring area. In other words, we define an operational strategy. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are set at which these are to be open to aircraft traffic. The manoeuvring area is also divided into zones, with the condition that the subsets of significant stretches lie within just one of these zones. The problem is solved by an iterative optimisation process based on linear programming applied successively to the zones that make up the manoeuvring area during each iteration. The impact of the results on DMAN, AMAN and TP processes is analysed for their integration into the calculation of TSAT and EBIT. The method is particularized for the case of the manoeuvring area of Adolfo Suarez Madrid - Barajas Airport.