862 resultados para Finanças - modelos matemáticos
Resumo:
EMAp - Escola de Matemática Aplicada
Resumo:
The control of the spread of dengue fever by introduction of the intracellular parasitic bacterium Wolbachia in populations of the vector Aedes aegypti, is presently one of the most promising tools for eliminating dengue, in the absence of an efficient vaccine. The success of this operation requires locally careful planning to determine the adequate number of mosquitoes carrying the Wolbachia parasite that need to be introduced into the natural population. The latter are expected to eventually replace the Wolbachia-free population and guarantee permanent protection against the transmission of dengue to human. In this paper, we propose and analyze a model describing the fundamental aspects of the competition between mosquitoes carrying Wolbachia and mosquitoes free of the parasite. We then introduce a simple feedback control law to synthesize an introduction protocol, and prove that the population is guaranteed to converge to a stable equilibrium where the totality of mosquitoes carry Wolbachia. The techniques are based on the theory of monotone control systems, as developed after Angeli and Sontag. Due to bistability, the considered input-output system has multivalued static characteristics, but the existing results are unable to prove almost-global stabilization, and ad hoc analysis has to be conducted.
Resumo:
Utilizo dados semanais para investigar a lucratividade de estratégias de momentum no mercado de câmbio baseadas em dois diferentes métodos de extração da tendência, possivelmente não linear. Comparo a performance com as tradicionais regras de médias móveis, método linear bastante utilizado pelos profissionais do mercado. Eu encontro que o desempenho de todas as estratégias é extremamente sensível à escolha da moeda, às defasagens utilizadas e ao critério de avaliação escolhido. A despeito disso, as moedas dos países do G10 apresentam resultados médios melhores com a utilização dos métodos não lineares, enquanto as moedas dos países emergentes apresentam resultados mistos. Adoto também uma metodologia para o gerenciamento do risco das estratégias de momentum, visando minimizar as “grandes perdas”. Ela tem êxito em diminuir as perdas máximas semanais, o desvio-padrão, a assimetria e curtose para a maior parte das moedas em ambas as estratégias. Quanto ao desempenho, as operações baseadas no filtro HP com gestão do risco apresentam retornos e índices de Sharpe maiores para cerca de 70% das estratégias, enquanto as baseadas na regressão não paramétrica apresentam resultados melhores para cerca de 60% das estratégias.
Resumo:
We consider risk-averse convex stochastic programs expressed in terms of extended polyhedral risk measures. We derive computable con dence intervals on the optimal value of such stochastic programs using the Robust Stochastic Approximation and the Stochastic Mirror Descent (SMD) algorithms. When the objective functions are uniformly convex, we also propose a multistep extension of the Stochastic Mirror Descent algorithm and obtain con dence intervals on both the optimal values and optimal solutions. Numerical simulations show that our con dence intervals are much less conservative and are quicker to compute than previously obtained con dence intervals for SMD and that the multistep Stochastic Mirror Descent algorithm can obtain a good approximate solution much quicker than its nonmultistep counterpart. Our con dence intervals are also more reliable than asymptotic con dence intervals when the sample size is not much larger than the problem size.
Resumo:
A composição de equipes é um tema recorrente em diferentes áreas do conhecimento. O interesse pela definição das etapas e variáveis relevantes desse processo, considerado complexo, é manifestado por pesquisadores, profissionais e desenvolvedores de Sistemas de Informação (SI). Todavia, enquanto linhas teóricas, oriundas dos estudos organizacionais, buscam a consolidação de modelos matemáticos que reflitam a relação entre variáveis de composição de equipes e o seu desempenho, teorias emergentes, como a de Combinação Social, acrescentam novos elementos à discussão. Adicionalmente, variáveis específicas de cada contexto, que no caso dessa pesquisa é a educação executiva brasileira, também são mencionadas como tendo relevância para estruturação de grupos. Dado o interesse e a variedade de vertentes teóricas que abordam esse fenômeno, essa pesquisa foi proposta para descrever como ocorre a construção de equipes docentes e identificar as variáveis consideradas relevantes neste processo. Um modelo teórico inicial foi desenvolvido e aplicado. Dada a característica da questão de pesquisa, foi utilizada uma abordagem metodológica exploratório-descritiva, baseada em estudos de casos múltiplos, realizados em quatro instituições de ensino superior brasileiras, que oferecem cursos de educação executiva. A coleta e a análise de dados foi norteada pelos métodos propostos por Huberman e Miles (1983) e Yin (2010), compreendendo a utilização de um protocolo de estudo de caso, bem como o uso de tabelas e quadros, padronizados à luz do modelo teórico inicial. Os resultados desse trabalho indicam, majoritariamente, que: as teorias de Combinação Social e as teorias de Educação adicionam elementos que são relevantes ao entendimento do processo de composição de equipes; há variáveis não estruturadas que deixam de ser consideradas em documentos utilizados na avaliação e seleção de profissionais para equipes docentes; e há variáveis de composição que só são consideradas após o fim do primeiro ciclo de atividades das equipes. Com base nos achados empíricos, a aplicação do modelo teórico foi ajustada e apresentada. As contribuições adicionais, as reflexões, as limitações e as propostas de estudos futuros são apresentadas no capítulo de conclusões.
Resumo:
Reviewing the de nition and measurement of speculative bubbles in context of contagion, this paper analyses the DotCom bubble in American and European equity markets using the dynamic conditional correlation (DCC) model proposed by (Engle and Sheppard 2001) as on one hand as an econometrics explanation and on the other hand the behavioral nance as an psychological explanation. Contagion is de ned in this context as the statistical break in the computed DCCs as measured by the shifts in their means and medians. Even it is astonishing, that the contagion is lower during price bubbles, the main nding indicates the presence of contagion in the di¤erent indices among those two continents and proves the presence of structural changes during nancial crisis
Resumo:
We construct a frictionless matching model of the marriage market where women have bidimensional attributes, one continuous (income) and the other dichotomous (home ability). Equilibrium in the marriage market determines intrahousehold allocation of resources and female labor participation. Our model is able to predict partial non-assortative matching, with rich men marrying women with low income but high home ability. We then perform numerical exercises to evaluate the impacts of income taxes in individual welfare and find that there is considerable divergence in the female labor participation response to taxes between the short run and the long run.
Resumo:
The synthetic control (SC) method has been recently proposed as an alternative method to estimate treatment e ects in comparative case studies. Abadie et al. [2010] and Abadie et al. [2015] argue that one of the advantages of the SC method is that it imposes a data-driven process to select the comparison units, providing more transparency and less discretionary power to the researcher. However, an important limitation of the SC method is that it does not provide clear guidance on the choice of predictor variables used to estimate the SC weights. We show that such lack of speci c guidances provides signi cant opportunities for the researcher to search for speci cations with statistically signi cant results, undermining one of the main advantages of the method. Considering six alternative speci cations commonly used in SC applications, we calculate in Monte Carlo simulations the probability of nding a statistically signi cant result at 5% in at least one speci cation. We nd that this probability can be as high as 13% (23% for a 10% signi cance test) when there are 12 pre-intervention periods and decay slowly with the number of pre-intervention periods. With 230 pre-intervention periods, this probability is still around 10% (18% for a 10% signi cance test). We show that the speci cation that uses the average pre-treatment outcome values to estimate the weights performed particularly bad in our simulations. However, the speci cation-searching problem remains relevant even when we do not consider this speci cation. We also show that this speci cation-searching problem is relevant in simulations with real datasets looking at placebo interventions in the Current Population Survey (CPS). In order to mitigate this problem, we propose a criterion to select among SC di erent speci cations based on the prediction error of each speci cations in placebo estimations
Resumo:
Esta tese é dedicada às redes de período longo, LPG’s, em fibra óptica, escritas por exposição a radiação ultravioleta (UV) ou por exposição a descargas eléctricas, e às suas aplicações em comunicações ópticas e em sistemas sensores. Numa primeira fase estudaram-se os aspectos teóricos fundamentais para a compreensão das LPG, nomeadamente os dois modelos matemáticos propostos na literatura, para a transmissão espectral de uma LPG, o modelo de duas camadas e o modelo de três camadas. Em seguida, estudou-se o deslocamento do comprimento de onda ressonante perante mudanças de parâmetros externos. Aqui, verificou-se que para variações da temperatura no exterior da LPG, o deslocamento do comprimento de onda ressonante é linear. Por outro lado, para variações de índice de refracção exterior, verificou-se que à medida que o índice exterior se aproxima dos valores do índice de refracção da bainha, o comprimento de onda ressonante tende para valores mais baixos. Por último, realizou-se um estudo da transmissão espectral de duas aplicações que envolvem LPG’s, nomeadamente dois tipos de interferómetros e filtros ópticos. Numa segunda fase, foi desenvolvida uma ferramenta de simulação destes modelos, que permitia não só a obtenção dos espectros de transmissão das LPG’s mas também a obtenção das curvas de phase matching em função do período da rede e do comprimento de onda ressonante. A aplicação permitia também a obtenção das curvas do deslocamento do comprimento de onda ressonante, perante variações do índice de refracção exterior ou da temperatura. Para além disso, essa ferramenta realiza a simulação dos espectros de transmissão de filtros ópticos e de interferómetros de Michelson e de Mach-Zehnder construídos com base em LPG’s. A última fase do trabalho, a componente laboratorial, foi realizada na Unidade de Optoelectrónica e Sistemas Electrónicos do INESC Porto, onde foram construídos e testados os dispositivos estudados anteriormente, com o intuito de validar a aplicação desenvolvida. A ferramenta de simulação demonstrou ser capaz de simular de forma adequada os diversos aspectos do comportamento das LPG’s que foram estudados. A comparação dos resultados obtidos permitiu concluir que o modelo mais correcto para o estudo das LPG’s é o modelo de três camadas, o que está de acordo com o esperado.
Resumo:
A resistência a múltiplos fármacos é um grande problema na terapia anti-cancerígena, sendo a glicoproteína-P (P-gp) uma das responsáveis por esta resistência. A realização deste trabalho incidiu principalmente no desenvolvimento de modelos matemáticos/estatísticos e “químicos”. Para os modelos matemáticos/estatísticos utilizamos métodos de Machine Learning como o Support Vector Machine (SVM) e o Random Forest, (RF) em relação aos modelos químicos utilizou-se farmacóforos. Os métodos acima mencionados foram aplicados a diversas proteínas P-gp, p53 e complexo p53-MDM2, utilizando duas famílias: as pifitrinas para a p53 e flavonóides para P-gp e, em menor medida, um grupo diversificado de moléculas de diversas famílias químicas. Nos modelos obtidos pelo SVM quando aplicados à P-gp e à família dos flavonóides, obtivemos bons valores através do kernel Radial Basis Function (RBF), com precisão de conjunto de treino de 94% e especificidade de 96%. Quanto ao conjunto de teste com previsão de 70% e especificidade de 67%, sendo que o número de falsos negativos foi o mais baixo comparativamente aos restantes kernels. Aplicando o RF à família dos flavonóides verificou-se que o conjunto de treino apresenta 86% de precisão e uma especificidade de 90%, quanto ao conjunto de teste obtivemos uma previsão de 70% e uma especificidade de 60%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Repetindo o procedimento anterior (RF) e utilizando um total de 63 descritores, os resultados apresentaram valores inferiores obtendo-se para o conjunto de treino 79% de precisão e 82% de especificidade. Aplicando o modelo ao conjunto de teste obteve-se 70% de previsão e 60% de especificidade. Comparando os dois métodos, escolhemos o método SVM com o kernel RBF como modelo que nos garante os melhores resultados de classificação. Aplicamos o método SVM à P-gp e a um conjunto de moléculas não flavonóides que são transportados pela P-gp, obteve-se bons valores através do kernel RBF, com precisão de conjunto de treino de 95% e especificidade de 93%. Quanto ao conjunto de teste, obtivemos uma previsão de 70% e uma especificidade de 69%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Aplicou-se o método do farmacóforo a três alvos, sendo estes, um conjunto de inibidores flavonóides e de substratos não flavonóides para a P-gp, um grupo de piftrinas para a p53 e um conjunto diversificado de estruturas para a ligação da p53-MDM2. Em cada um dos quatro modelos de farmacóforos obtidos identificou-se três características, sendo que as características referentes ao anel aromático e ao dador de ligações de hidrogénio estão presentes em todos os modelos obtidos. Realizando o rastreio em diversas bases de dados utilizando os modelos, obtivemos hits com uma grande diversidade estrutural.
Resumo:
Este relatório tem como objetivos apresentar uma reflexão sobre a minha experiência profissional ao longo de nove anos de serviço como docente de Matemática e analisar o impacto de alguns instrumentos de avaliação na aprendizagem dos alunos no tema da Estatística. Para realizar esta investigação foi selecionada uma turma de um curso profissional, em que quase todos os alunos revelavam dificuldades de aprendizagem em Matemática. Neste estudo, optou-se por uma metodologia de natureza qualitativa de caráter interpretativo. Os instrumentos de avaliação usados na sala de aula e que foram alvo de análise neste estudo foram os seguintes: testes em duas fases, trabalhos escritos e uma apresentação oral. Com estes instrumentos foi possível identificar as principais dificuldades dos alunos. Assim, verificou-se que os alunos revelaram dificuldades em mobilizar os conceitos estatísticos para contextos reais, em usar conceitos e factos estatísticos como argumentos para fundamentar uma dada tomada de posição, em comunicar as suas ideias e também em assimilar alguns conceitos, como por exemplo, o desvio padrão. Ter usado diversos instrumentos de avaliação, contribuiu para que os alunos superassem algumas dessas dificuldades e também permitiu o desenvolvimento de várias capacidades e competências, como a capacidade para comunicar ideias ou opiniões oralmente ou por escrito; em usar a tecnologia para calcular medidas estatísticas ou usar modelos matemáticos que ajudou a interpretar a realidade. Também contribuiu para que os alunos se tornassem mais letrados estatisticamente e, desta forma, cidadãos mais informados e críticos, com maior capacidade para intervir no meio social.
Resumo:
Com a evolução constante da tecnologia, também a ciência da medição, ou Metrologia, necessita de processos de medição mais exatos e fiáveis, por vezes automatizados, de modo a ser possível fornecer informações mais corretas sobre uma determinada grandeza física. Entre estas informações destaca-se a incerteza de medição, que permite ao utilizador ter uma estimativa sobre qual o valor final da grandeza física medida, que com processos de medição mais complexos, tornam a sua obtenção mais difícil, sendo necessário, por vezes, a utilização de métodos computacionais. Tendo isto em conta, com esta dissertação pretende-se abordar o problema da automatização de processos de medição, bem como da obtenção de incertezas de medição que reflitam a natureza da grandeza física medida através de métodos computacionais. De modo a automatizar um processo de medição, mais concretamente da calibração de manómetros, utilizou-se o LabView para criar um instrumento virtual que permitisse ao utilizador, de forma simples e intuitiva, realizar o procedimento de calibração. Também se realizou outro instrumento virtual, de modo a permitir a obtenção simultânea de dados provenientes de dois equipamentos diferentes. Relativamente às incertezas de medição, utilizou-se o Método de Monte Carlo, implementado em MATLAB e Excel, de modo a obter o valor destas para a calibração de manómetros, de uma câmara geradora de humidade relativa e de um higrómetro de ponto de orvalho, sendo que os dois últimos possuem um modelo matemático complexo, sendo a análise analítica mais complexa e morosa. Tendo em conta os resultados obtidos, é possível afirmar que a criação de instrumentação virtual permite a adaptação, de uma forma simples, de vários processos de medição, tornando-os mais eficientes para além de reduzirem o erro do operador. Por outro lado, também é possível observar que a utilização de métodos computacionais, neste caso o Método de Monte Carlo, para estudo de incertezas de medição é uma mais valia, comparativamente ao GUM, permitindo umaa análise rápida e fiável de modelos matemáticos complexos.
Resumo:
In this dissertation we present a model for iteration of Katsuno and Mendelzon’s Update, inspired in the developments for iteration in AGM belief revision. We adapt Darwiche and Pearls’ postulates of iterated belief revision to update (as well as the independence postulate proposed in [BM06, JT07]) and show two families of such operators, based in natural [Bou96] and lexicographic revision [Nay94a, NPP03]. In all cases, we provide a possible worlds semantics of the models.
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
Water injection is the most widely used method for supplementary recovery in many oil fields due to various reasons, like the fact that water is an effective displacing agent of low viscosity oils, the water injection projects are relatively simple to establish and the water availability at a relatively low cost. For design of water injection projects is necessary to do reservoir studies in order to define the various parameters needed to increase the effectiveness of the method. For this kind of study can be used several mathematical models classified into two general categories: analytical or numerical. The present work aims to do a comparative analysis between the results presented by flow lines simulator and conventional finite differences simulator; both types of simulators are based on numerical methods designed to model light oil reservoirs subjected to water injection. Therefore, it was defined two reservoir models: the first one was a heterogeneous model whose petrophysical properties vary along the reservoir and the other one was created using average petrophysical properties obtained from the first model. Comparisons were done considering that the results of these two models were always in the same operational conditions. Then some rock and fluid parameters have been changed in both models and again the results were compared. From the factorial design, that was done to study the sensitivity analysis of reservoir parameters, a few cases were chosen to study the role of water injection rate and the vertical position of wells perforations in production forecast. It was observed that the results from the two simulators are quite similar in most of the cases; differences were found only in those cases where there was an increase in gas solubility ratio of the model. Thus, it was concluded that in flow simulation of reservoirs analogous of those now studied, mainly when the gas solubility ratio is low, the conventional finite differences simulator may be replaced by flow lines simulator the production forecast is compatible but the computational processing time is lower.