867 resultados para MODELOS MATEMÁTICOS
Resumo:
Este trabalho aborda os fundamentos da relação entre a medida neutra a risco e o mundo físico, apresentando algumas metodologias conhecidas de transformação da medida de probabilidade associada a cada um destes dois contextos. Mostramos como titulos de crédito podem ser utilizados para a estimação da probabilidade de inadimplência de seus emissores, explicitando os motivos que fazem com que ela não reflita, em um primeiro momento, os dados observados historicamente. Utilizando dados de empresas brasileiras, estimamos a razão entre a probabilidade de default neutra a risco e a probabilidade de default real. Tais resultados, quando comparados com outros trabalhos similares, sugerem que a razão do prêmio de risco de empresas brasileiras possui valor maior do que a de empresas americanas.
Resumo:
Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
Resumo:
EMAp - Escola de Matemática Aplicada
Resumo:
The control of the spread of dengue fever by introduction of the intracellular parasitic bacterium Wolbachia in populations of the vector Aedes aegypti, is presently one of the most promising tools for eliminating dengue, in the absence of an efficient vaccine. The success of this operation requires locally careful planning to determine the adequate number of mosquitoes carrying the Wolbachia parasite that need to be introduced into the natural population. The latter are expected to eventually replace the Wolbachia-free population and guarantee permanent protection against the transmission of dengue to human. In this paper, we propose and analyze a model describing the fundamental aspects of the competition between mosquitoes carrying Wolbachia and mosquitoes free of the parasite. We then introduce a simple feedback control law to synthesize an introduction protocol, and prove that the population is guaranteed to converge to a stable equilibrium where the totality of mosquitoes carry Wolbachia. The techniques are based on the theory of monotone control systems, as developed after Angeli and Sontag. Due to bistability, the considered input-output system has multivalued static characteristics, but the existing results are unable to prove almost-global stabilization, and ad hoc analysis has to be conducted.
Resumo:
Utilizo dados semanais para investigar a lucratividade de estratégias de momentum no mercado de câmbio baseadas em dois diferentes métodos de extração da tendência, possivelmente não linear. Comparo a performance com as tradicionais regras de médias móveis, método linear bastante utilizado pelos profissionais do mercado. Eu encontro que o desempenho de todas as estratégias é extremamente sensível à escolha da moeda, às defasagens utilizadas e ao critério de avaliação escolhido. A despeito disso, as moedas dos países do G10 apresentam resultados médios melhores com a utilização dos métodos não lineares, enquanto as moedas dos países emergentes apresentam resultados mistos. Adoto também uma metodologia para o gerenciamento do risco das estratégias de momentum, visando minimizar as “grandes perdas”. Ela tem êxito em diminuir as perdas máximas semanais, o desvio-padrão, a assimetria e curtose para a maior parte das moedas em ambas as estratégias. Quanto ao desempenho, as operações baseadas no filtro HP com gestão do risco apresentam retornos e índices de Sharpe maiores para cerca de 70% das estratégias, enquanto as baseadas na regressão não paramétrica apresentam resultados melhores para cerca de 60% das estratégias.
Resumo:
We consider risk-averse convex stochastic programs expressed in terms of extended polyhedral risk measures. We derive computable con dence intervals on the optimal value of such stochastic programs using the Robust Stochastic Approximation and the Stochastic Mirror Descent (SMD) algorithms. When the objective functions are uniformly convex, we also propose a multistep extension of the Stochastic Mirror Descent algorithm and obtain con dence intervals on both the optimal values and optimal solutions. Numerical simulations show that our con dence intervals are much less conservative and are quicker to compute than previously obtained con dence intervals for SMD and that the multistep Stochastic Mirror Descent algorithm can obtain a good approximate solution much quicker than its nonmultistep counterpart. Our con dence intervals are also more reliable than asymptotic con dence intervals when the sample size is not much larger than the problem size.
Resumo:
A composição de equipes é um tema recorrente em diferentes áreas do conhecimento. O interesse pela definição das etapas e variáveis relevantes desse processo, considerado complexo, é manifestado por pesquisadores, profissionais e desenvolvedores de Sistemas de Informação (SI). Todavia, enquanto linhas teóricas, oriundas dos estudos organizacionais, buscam a consolidação de modelos matemáticos que reflitam a relação entre variáveis de composição de equipes e o seu desempenho, teorias emergentes, como a de Combinação Social, acrescentam novos elementos à discussão. Adicionalmente, variáveis específicas de cada contexto, que no caso dessa pesquisa é a educação executiva brasileira, também são mencionadas como tendo relevância para estruturação de grupos. Dado o interesse e a variedade de vertentes teóricas que abordam esse fenômeno, essa pesquisa foi proposta para descrever como ocorre a construção de equipes docentes e identificar as variáveis consideradas relevantes neste processo. Um modelo teórico inicial foi desenvolvido e aplicado. Dada a característica da questão de pesquisa, foi utilizada uma abordagem metodológica exploratório-descritiva, baseada em estudos de casos múltiplos, realizados em quatro instituições de ensino superior brasileiras, que oferecem cursos de educação executiva. A coleta e a análise de dados foi norteada pelos métodos propostos por Huberman e Miles (1983) e Yin (2010), compreendendo a utilização de um protocolo de estudo de caso, bem como o uso de tabelas e quadros, padronizados à luz do modelo teórico inicial. Os resultados desse trabalho indicam, majoritariamente, que: as teorias de Combinação Social e as teorias de Educação adicionam elementos que são relevantes ao entendimento do processo de composição de equipes; há variáveis não estruturadas que deixam de ser consideradas em documentos utilizados na avaliação e seleção de profissionais para equipes docentes; e há variáveis de composição que só são consideradas após o fim do primeiro ciclo de atividades das equipes. Com base nos achados empíricos, a aplicação do modelo teórico foi ajustada e apresentada. As contribuições adicionais, as reflexões, as limitações e as propostas de estudos futuros são apresentadas no capítulo de conclusões.
Resumo:
Esta dissertação estuda a propagação de crises sobre o sistema financeiro. Mais especi- ficamente, busca-se desenvolver modelos que permitam simular como um determinado choque econômico atinge determinados agentes do sistema financeiro e apartir dele se propagam, transformando-se em um problema sistêmico. A dissertação é dividida em dois capítulos,além da introdução. O primeiro capítulo desenvolve um modelo de propa- gação de crises em fundos de investimento baseado em ciência das redes.Combinando dois modelos de propagação em redes financeiras, um simulando a propagação de perdas em redes bipartites de ativos e agentes financeiros e o outro simulando a propagação de perdas em uma rede de investimentos diretos em quotas de outros agentes, desenvolve-se um algoritmo para simular a propagação de perdas através de ambos os mecanismos e utiliza-se este algoritmo para simular uma crise no mercado brasileiro de fundos de investimento. No capítulo 2,desenvolve-se um modelo de simulação baseado em agentes, com agentes financeiros, para simular propagação de um choque que afeta o mercado de operações compromissadas.Criamos também um mercado artificial composto por bancos, hedge funds e fundos de curto prazo e simulamos a propagação de um choque de liquidez sobre um ativo de risco securitizando utilizado para colateralizar operações compromissadas dos bancos.
Resumo:
We construct a frictionless matching model of the marriage market where women have bidimensional attributes, one continuous (income) and the other dichotomous (home ability). Equilibrium in the marriage market determines intrahousehold allocation of resources and female labor participation. Our model is able to predict partial non-assortative matching, with rich men marrying women with low income but high home ability. We then perform numerical exercises to evaluate the impacts of income taxes in individual welfare and find that there is considerable divergence in the female labor participation response to taxes between the short run and the long run.
Resumo:
The synthetic control (SC) method has been recently proposed as an alternative method to estimate treatment e ects in comparative case studies. Abadie et al. [2010] and Abadie et al. [2015] argue that one of the advantages of the SC method is that it imposes a data-driven process to select the comparison units, providing more transparency and less discretionary power to the researcher. However, an important limitation of the SC method is that it does not provide clear guidance on the choice of predictor variables used to estimate the SC weights. We show that such lack of speci c guidances provides signi cant opportunities for the researcher to search for speci cations with statistically signi cant results, undermining one of the main advantages of the method. Considering six alternative speci cations commonly used in SC applications, we calculate in Monte Carlo simulations the probability of nding a statistically signi cant result at 5% in at least one speci cation. We nd that this probability can be as high as 13% (23% for a 10% signi cance test) when there are 12 pre-intervention periods and decay slowly with the number of pre-intervention periods. With 230 pre-intervention periods, this probability is still around 10% (18% for a 10% signi cance test). We show that the speci cation that uses the average pre-treatment outcome values to estimate the weights performed particularly bad in our simulations. However, the speci cation-searching problem remains relevant even when we do not consider this speci cation. We also show that this speci cation-searching problem is relevant in simulations with real datasets looking at placebo interventions in the Current Population Survey (CPS). In order to mitigate this problem, we propose a criterion to select among SC di erent speci cations based on the prediction error of each speci cations in placebo estimations
Resumo:
Esta tese é dedicada às redes de período longo, LPG’s, em fibra óptica, escritas por exposição a radiação ultravioleta (UV) ou por exposição a descargas eléctricas, e às suas aplicações em comunicações ópticas e em sistemas sensores. Numa primeira fase estudaram-se os aspectos teóricos fundamentais para a compreensão das LPG, nomeadamente os dois modelos matemáticos propostos na literatura, para a transmissão espectral de uma LPG, o modelo de duas camadas e o modelo de três camadas. Em seguida, estudou-se o deslocamento do comprimento de onda ressonante perante mudanças de parâmetros externos. Aqui, verificou-se que para variações da temperatura no exterior da LPG, o deslocamento do comprimento de onda ressonante é linear. Por outro lado, para variações de índice de refracção exterior, verificou-se que à medida que o índice exterior se aproxima dos valores do índice de refracção da bainha, o comprimento de onda ressonante tende para valores mais baixos. Por último, realizou-se um estudo da transmissão espectral de duas aplicações que envolvem LPG’s, nomeadamente dois tipos de interferómetros e filtros ópticos. Numa segunda fase, foi desenvolvida uma ferramenta de simulação destes modelos, que permitia não só a obtenção dos espectros de transmissão das LPG’s mas também a obtenção das curvas de phase matching em função do período da rede e do comprimento de onda ressonante. A aplicação permitia também a obtenção das curvas do deslocamento do comprimento de onda ressonante, perante variações do índice de refracção exterior ou da temperatura. Para além disso, essa ferramenta realiza a simulação dos espectros de transmissão de filtros ópticos e de interferómetros de Michelson e de Mach-Zehnder construídos com base em LPG’s. A última fase do trabalho, a componente laboratorial, foi realizada na Unidade de Optoelectrónica e Sistemas Electrónicos do INESC Porto, onde foram construídos e testados os dispositivos estudados anteriormente, com o intuito de validar a aplicação desenvolvida. A ferramenta de simulação demonstrou ser capaz de simular de forma adequada os diversos aspectos do comportamento das LPG’s que foram estudados. A comparação dos resultados obtidos permitiu concluir que o modelo mais correcto para o estudo das LPG’s é o modelo de três camadas, o que está de acordo com o esperado.
Resumo:
A resistência a múltiplos fármacos é um grande problema na terapia anti-cancerígena, sendo a glicoproteína-P (P-gp) uma das responsáveis por esta resistência. A realização deste trabalho incidiu principalmente no desenvolvimento de modelos matemáticos/estatísticos e “químicos”. Para os modelos matemáticos/estatísticos utilizamos métodos de Machine Learning como o Support Vector Machine (SVM) e o Random Forest, (RF) em relação aos modelos químicos utilizou-se farmacóforos. Os métodos acima mencionados foram aplicados a diversas proteínas P-gp, p53 e complexo p53-MDM2, utilizando duas famílias: as pifitrinas para a p53 e flavonóides para P-gp e, em menor medida, um grupo diversificado de moléculas de diversas famílias químicas. Nos modelos obtidos pelo SVM quando aplicados à P-gp e à família dos flavonóides, obtivemos bons valores através do kernel Radial Basis Function (RBF), com precisão de conjunto de treino de 94% e especificidade de 96%. Quanto ao conjunto de teste com previsão de 70% e especificidade de 67%, sendo que o número de falsos negativos foi o mais baixo comparativamente aos restantes kernels. Aplicando o RF à família dos flavonóides verificou-se que o conjunto de treino apresenta 86% de precisão e uma especificidade de 90%, quanto ao conjunto de teste obtivemos uma previsão de 70% e uma especificidade de 60%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Repetindo o procedimento anterior (RF) e utilizando um total de 63 descritores, os resultados apresentaram valores inferiores obtendo-se para o conjunto de treino 79% de precisão e 82% de especificidade. Aplicando o modelo ao conjunto de teste obteve-se 70% de previsão e 60% de especificidade. Comparando os dois métodos, escolhemos o método SVM com o kernel RBF como modelo que nos garante os melhores resultados de classificação. Aplicamos o método SVM à P-gp e a um conjunto de moléculas não flavonóides que são transportados pela P-gp, obteve-se bons valores através do kernel RBF, com precisão de conjunto de treino de 95% e especificidade de 93%. Quanto ao conjunto de teste, obtivemos uma previsão de 70% e uma especificidade de 69%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Aplicou-se o método do farmacóforo a três alvos, sendo estes, um conjunto de inibidores flavonóides e de substratos não flavonóides para a P-gp, um grupo de piftrinas para a p53 e um conjunto diversificado de estruturas para a ligação da p53-MDM2. Em cada um dos quatro modelos de farmacóforos obtidos identificou-se três características, sendo que as características referentes ao anel aromático e ao dador de ligações de hidrogénio estão presentes em todos os modelos obtidos. Realizando o rastreio em diversas bases de dados utilizando os modelos, obtivemos hits com uma grande diversidade estrutural.
Resumo:
Este relatório tem como objetivos apresentar uma reflexão sobre a minha experiência profissional ao longo de nove anos de serviço como docente de Matemática e analisar o impacto de alguns instrumentos de avaliação na aprendizagem dos alunos no tema da Estatística. Para realizar esta investigação foi selecionada uma turma de um curso profissional, em que quase todos os alunos revelavam dificuldades de aprendizagem em Matemática. Neste estudo, optou-se por uma metodologia de natureza qualitativa de caráter interpretativo. Os instrumentos de avaliação usados na sala de aula e que foram alvo de análise neste estudo foram os seguintes: testes em duas fases, trabalhos escritos e uma apresentação oral. Com estes instrumentos foi possível identificar as principais dificuldades dos alunos. Assim, verificou-se que os alunos revelaram dificuldades em mobilizar os conceitos estatísticos para contextos reais, em usar conceitos e factos estatísticos como argumentos para fundamentar uma dada tomada de posição, em comunicar as suas ideias e também em assimilar alguns conceitos, como por exemplo, o desvio padrão. Ter usado diversos instrumentos de avaliação, contribuiu para que os alunos superassem algumas dessas dificuldades e também permitiu o desenvolvimento de várias capacidades e competências, como a capacidade para comunicar ideias ou opiniões oralmente ou por escrito; em usar a tecnologia para calcular medidas estatísticas ou usar modelos matemáticos que ajudou a interpretar a realidade. Também contribuiu para que os alunos se tornassem mais letrados estatisticamente e, desta forma, cidadãos mais informados e críticos, com maior capacidade para intervir no meio social.
Resumo:
Com a evolução constante da tecnologia, também a ciência da medição, ou Metrologia, necessita de processos de medição mais exatos e fiáveis, por vezes automatizados, de modo a ser possível fornecer informações mais corretas sobre uma determinada grandeza física. Entre estas informações destaca-se a incerteza de medição, que permite ao utilizador ter uma estimativa sobre qual o valor final da grandeza física medida, que com processos de medição mais complexos, tornam a sua obtenção mais difícil, sendo necessário, por vezes, a utilização de métodos computacionais. Tendo isto em conta, com esta dissertação pretende-se abordar o problema da automatização de processos de medição, bem como da obtenção de incertezas de medição que reflitam a natureza da grandeza física medida através de métodos computacionais. De modo a automatizar um processo de medição, mais concretamente da calibração de manómetros, utilizou-se o LabView para criar um instrumento virtual que permitisse ao utilizador, de forma simples e intuitiva, realizar o procedimento de calibração. Também se realizou outro instrumento virtual, de modo a permitir a obtenção simultânea de dados provenientes de dois equipamentos diferentes. Relativamente às incertezas de medição, utilizou-se o Método de Monte Carlo, implementado em MATLAB e Excel, de modo a obter o valor destas para a calibração de manómetros, de uma câmara geradora de humidade relativa e de um higrómetro de ponto de orvalho, sendo que os dois últimos possuem um modelo matemático complexo, sendo a análise analítica mais complexa e morosa. Tendo em conta os resultados obtidos, é possível afirmar que a criação de instrumentação virtual permite a adaptação, de uma forma simples, de vários processos de medição, tornando-os mais eficientes para além de reduzirem o erro do operador. Por outro lado, também é possível observar que a utilização de métodos computacionais, neste caso o Método de Monte Carlo, para estudo de incertezas de medição é uma mais valia, comparativamente ao GUM, permitindo umaa análise rápida e fiável de modelos matemáticos complexos.
Resumo:
In this dissertation we present a model for iteration of Katsuno and Mendelzon’s Update, inspired in the developments for iteration in AGM belief revision. We adapt Darwiche and Pearls’ postulates of iterated belief revision to update (as well as the independence postulate proposed in [BM06, JT07]) and show two families of such operators, based in natural [Bou96] and lexicographic revision [Nay94a, NPP03]. In all cases, we provide a possible worlds semantics of the models.