859 resultados para Sistemas de potencia-Modelos matemáticos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Discute-se como a assimetria de informações afeta os modelos de precificação de ativos e algumas das consequências para os testes de eficiência. No primeiro capítulo são apresentados dois modelos que partiram da hipótese que os agentes possuem informação completa sobre as variáveis econômicas: o CAPM e o Black-Scholes. No segundo capítulo procura-se verificar até que ponto é possível modelar a economia dadas estas imperfeições. Partindo de uma variação de AkerIoff (1970), mostra-se que quando uma parte de posse de uma informação superior transaciona com outra, ocorre uma falha de mercado, a seleção adversa, podendo até gerar o colapso do mercado. O segundo modelo analisado, Bray (1989), mostra como as informações privilegiadas são incorporadas ao preço e o último modelo, Kyle (1985), analisa como a presença de um agente com informação privilegiada afeta a liquidez do mercado. O terceiro capítulo faz um teste para a eficiência do mercado de câmbio brasileiro. Apesar de não se poder negar a presença de co integração entre as séries, não se pode aceitar a hipótese de eficiência semi-forte, ou seja, a hipótese de que o mercado futuro seria um estimador não viesado para o mercado à vista, o que pode ser interpretado como indicação de informação incompleta ou imperfeita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Análise da evolução e configuração atual do setor de telecomunicações móveis celular, verificando a existência de correlações entre parâmetros de performance do setor e de parâmetros macroeconômicos, estabelecendo cenários previstos e comparando-os com dados reais. Aponta oportunidades de crescimento do mercado, considerando o potencial do mercado de telefonia móvel celular, relacionando com as perspectivas de crescimento econômico do país

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em 1985, Mehra e Prescott levantaram uma questão que até hoje não foi respondida de forma satisfatória: o prêmio de risco das ações americanas é muito maior do que poderia ser explicado pelo “paradigma neoclássico de finanças econômicas” (financial economics) representado pelo modelo C-CAPM. E, a partir de então, este problema não resolvido ficou conhecido como o “Equity Premium Puzzle” (EPP) ou o “Enigma do Prêmio (de risco) das Ações”. Este enigma estimulou a produção de uma série de artigos, dissertações e teses que tentaram ajustar os modelos intertemporais de utilidade esperada aos dados dos mercados financeiros. Dentro deste contexto, esta tese busca (i) revisar a evolução histórica da teoria dos modelos de maximização da utilidade intertemporal dos agentes, (ii) analisar os pressupostos e conceitos chaves desses modelos, (iii) propor um novo modelo que seja capaz de solucionar o EPP, (iv) aplicar este modelo proposto aos dados históricos anuais entre 1929 e 2004 e (v) validar a lógica deste modelo através das metodologias Mehra-Prescott e Hansen-Jagannathan. Esta tese faz uma crítica de que os estudos até aqui desenvolvidos tentaram explicar a dinâmica de um mercado financeiro altamente sofisticado, através de um modelo de economia não-monetária e de subsistência. Assim, a sua contribuição consiste na alteração desse pressuposto de uma economia de subsistência, considerando que a renda disponível do setor privado não seja integralmente consumida, mas que também possa ser poupada. Assumindo que as pessoas obtêm satisfação (utilidade) tanto pelo consumo atual como pela poupança atual (que será o consumo futuro), será deduzido que a utilidade marginal de consumir é igual à de poupar, em todo e qualquer período. Com base nisso, a utilidade marginal a consumir é substituída pela utilidade marginal de poupar dentro do modelo básico do C-CAPM. Para reforçar a idéia de que o modelo desta tese usa dados de poupança em vez de consumo, ao longo do trabalho ele será chamado de Sanving-CAPM, ou S-CAPM. Este novo modelo mostrou-se capaz de solucionar o EPP quando submetidas às abordagens Mehra-Prescott e Hansen-Jagannathan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, desenvolveram-se modelos matemáticos simplificados para o cálculo de duas variáveis importantes no estudo da extrusão de polímeros: vazão mássica (M&) e pressão na saída da extrusora (Psaída), em função das propriedades dos materiais e das condições de operação do equipamento. Podem-se utilizar esses modelos como ferramentas simples para a definição de critérios de ajustes que se devem fazer em uma extrusora de parafuso único para obter-se o desempenho desejado quando se alimenta o equipamento com um novo material. Para desenvolverem-se os modelos simplificados, utilizaram-se dados experimentais da extrusão de poliestireno (PS) e de polipropileno (PP), bem como resultados preditos por um programa computacional de simulação de extrusão disponível comercialmente. Mediram-se os dados experimentais de vazão mássica e de pressão na saída da extrusora em um equipamento de parafuso único de 45 mm de diâmetro. Realizaram-se esses testes, variando-se a velocidade de rotação do parafuso de 70 a 100 rpm para ambos os polímeros. No primeiro conjunto de simulações, utilizou-se o simulador Flow 2000 (Compuplast Inc.) para ajustarem-se os valores preditos de M& e de Psaída aos dados obtidos experimentalmente através da estimação dos fatores de atrito barril-polímero tanto para o PP quanto para o PS. Posteriormente, realizou-se um planejamento de experimentos, do tipo fatorial fracionado , para obter-se um segundo conjunto de simulações, considerando-se as propriedades dos materiais (reológicas e térmicas) e as condições de operação da extrusora (velocidade de rotação do parafuso e perfil de temperatura nas zonas de aquecimento da extrusora) como fatores de investigação. Com as novas simulações no Flow 2000, ajustaram-se os parâmetros dos modelos simplificados aos valores de vazão mássica e de pressão na saída da extrusora preditos no simulador. Elaboraram-se os modelos simplificados levando-se em conta as interações entre os fatores cujos efeitos consideraram-se significativos nas análises de variância (ANOVA). Obteve-se um modelo linear com 37 termos para o cálculo da vazão mássica e um modelo linear com 41 termos para o cálculo da pressão na saída da extrusora. Posteriormente, aplicou-se uma técnica de regressão multivariável para selecionar apenas os termos importantes dessas 1402IV2− XVI equações, conduzindo a um modelo linear com 10 termos para o cálculo da vazão mássica e a um modelo com 6 termos para o cálculo da pressão na saída da extrusora. Conseguiu-se boa concordância entre os dados experimentais e os valores preditos quando se aplicaram os modelos simplificados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante muitos anos uma controversa questão tem ocupado tanto os discursos acadêmicos quanto os financeiros. O problema a ser resolvido diz respeito à evolução passada dos preços das ações e se tal evolução poderia ser utilizada para prever o comportamento dos preços futuros dessas ações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esse trabalho tem por objetivo geral o desenvolvimento de uma metodologia de modelagem numérica que represente o escoamento e o fenômeno de mistura em um modelo físico de panela de aciaria de base elíptica. Os objetivos específicos do trabalho são: o estudo dos coeficientes das forças de interação líquido-bolha, dos modelos de turbulência e da mudança do formato da base da panela de circular para elíptica. O escoamento e o fenômeno de mistura foram calculados através do método de Volume Finitos baseado em Elementos por meio do software CFX5.7 da Ansys. Dados da literatura e ensaios em modelo físico, realizados em laboratório, auxiliaram na validação dos modelos numéricos. O estudo dos coeficientes das forças de não-arrasto mostrou que os resultados da distribuição de ar ao longo da altura do banho mudam com a variação dos coeficientes. No final, coeficientes para 3 configurações de panelas em diferentes vazões de ar foram encontrados. Com relação ao estudo dos modelos de turbulência, observou-se que para a solução do escoamento e do fenômeno de mistura em uma panela de base circular, o k-ε é o modelo de turbulência mais indicado. Por outro lado, para uma panela de base elíptica, o modelo RSM mostrou-se o mais adequado. Finalmente, com relação ao estudo da mudança do formato da base da panela, observou-se que os tempos de mistura de uma panela de base elíptica são maiores que uma de base circular e aumentam à medida que a vazão de ar diminui.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho visa comparar o poder preditivo das previsões feitas a partir de diferentes metodologias aplicadas para a série de expedição brasileira de papelão ondulado. Os dados de expedição de papelão ondulado serão decompostos pelas categorias industriais de destino das caixas e serão feitos modelos do tipo SARIMA univariados para cada setor. As previsões das séries desagregadas serão então agregadas, para compor a previsão da série total de expedição. A previsão feita a partir da somatória das categorias industriais será comparada com um SARIMA univariado da série agregada, a fim de verificar qual dos dois métodos resulta em um modelo com melhor acurácia. Essa comparação será feita a partir da metodologia desenvolvida por Diebold e Mariano (1995).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A composição de equipes é um tema recorrente em diferentes áreas do conhecimento. O interesse pela definição das etapas e variáveis relevantes desse processo, considerado complexo, é manifestado por pesquisadores, profissionais e desenvolvedores de Sistemas de Informação (SI). Todavia, enquanto linhas teóricas, oriundas dos estudos organizacionais, buscam a consolidação de modelos matemáticos que reflitam a relação entre variáveis de composição de equipes e o seu desempenho, teorias emergentes, como a de Combinação Social, acrescentam novos elementos à discussão. Adicionalmente, variáveis específicas de cada contexto, que no caso dessa pesquisa é a educação executiva brasileira, também são mencionadas como tendo relevância para estruturação de grupos. Dado o interesse e a variedade de vertentes teóricas que abordam esse fenômeno, essa pesquisa foi proposta para descrever como ocorre a construção de equipes docentes e identificar as variáveis consideradas relevantes neste processo. Um modelo teórico inicial foi desenvolvido e aplicado. Dada a característica da questão de pesquisa, foi utilizada uma abordagem metodológica exploratório-descritiva, baseada em estudos de casos múltiplos, realizados em quatro instituições de ensino superior brasileiras, que oferecem cursos de educação executiva. A coleta e a análise de dados foi norteada pelos métodos propostos por Huberman e Miles (1983) e Yin (2010), compreendendo a utilização de um protocolo de estudo de caso, bem como o uso de tabelas e quadros, padronizados à luz do modelo teórico inicial. Os resultados desse trabalho indicam, majoritariamente, que: as teorias de Combinação Social e as teorias de Educação adicionam elementos que são relevantes ao entendimento do processo de composição de equipes; há variáveis não estruturadas que deixam de ser consideradas em documentos utilizados na avaliação e seleção de profissionais para equipes docentes; e há variáveis de composição que só são consideradas após o fim do primeiro ciclo de atividades das equipes. Com base nos achados empíricos, a aplicação do modelo teórico foi ajustada e apresentada. As contribuições adicionais, as reflexões, as limitações e as propostas de estudos futuros são apresentadas no capítulo de conclusões.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese é dedicada às redes de período longo, LPG’s, em fibra óptica, escritas por exposição a radiação ultravioleta (UV) ou por exposição a descargas eléctricas, e às suas aplicações em comunicações ópticas e em sistemas sensores. Numa primeira fase estudaram-se os aspectos teóricos fundamentais para a compreensão das LPG, nomeadamente os dois modelos matemáticos propostos na literatura, para a transmissão espectral de uma LPG, o modelo de duas camadas e o modelo de três camadas. Em seguida, estudou-se o deslocamento do comprimento de onda ressonante perante mudanças de parâmetros externos. Aqui, verificou-se que para variações da temperatura no exterior da LPG, o deslocamento do comprimento de onda ressonante é linear. Por outro lado, para variações de índice de refracção exterior, verificou-se que à medida que o índice exterior se aproxima dos valores do índice de refracção da bainha, o comprimento de onda ressonante tende para valores mais baixos. Por último, realizou-se um estudo da transmissão espectral de duas aplicações que envolvem LPG’s, nomeadamente dois tipos de interferómetros e filtros ópticos. Numa segunda fase, foi desenvolvida uma ferramenta de simulação destes modelos, que permitia não só a obtenção dos espectros de transmissão das LPG’s mas também a obtenção das curvas de phase matching em função do período da rede e do comprimento de onda ressonante. A aplicação permitia também a obtenção das curvas do deslocamento do comprimento de onda ressonante, perante variações do índice de refracção exterior ou da temperatura. Para além disso, essa ferramenta realiza a simulação dos espectros de transmissão de filtros ópticos e de interferómetros de Michelson e de Mach-Zehnder construídos com base em LPG’s. A última fase do trabalho, a componente laboratorial, foi realizada na Unidade de Optoelectrónica e Sistemas Electrónicos do INESC Porto, onde foram construídos e testados os dispositivos estudados anteriormente, com o intuito de validar a aplicação desenvolvida. A ferramenta de simulação demonstrou ser capaz de simular de forma adequada os diversos aspectos do comportamento das LPG’s que foram estudados. A comparação dos resultados obtidos permitiu concluir que o modelo mais correcto para o estudo das LPG’s é o modelo de três camadas, o que está de acordo com o esperado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Although it has been suggested that retinal vasculature is a diffusion-limited aggregation (DLA) fractal, no study has been dedicated to standardizing its fractal analysis . The aims of this project was to standardize a method to estimate the fractal dimensions of retinal vasculature and to characterize their normal values; to determine if this estimation is dependent on skeletization and on segmentation and calculation methods; to assess the suitability of the DLA model and to determine the usefulness of log-log graphs in characterizing vasculature fractality . To achieve these aims, the information, mass-radius and box counting dimensions of 20 eyes vasculatures were compared when the vessels were manually or computationally segmented; the fractal dimensions of the vasculatures of 60 eyes of healthy volunteers were compared with those of 40 DLA models and the log-log graphs obtained were compared with those of known fractals and those of non-fractals. The main results were: the fractal dimensions of vascular trees were dependent on segmentation methods and dimension calculation methods, but there was no difference between manual segmentation and scale-space, multithreshold and wavelet computational methods; the means of the information and box dimensions for arteriolar trees were 1.29. against 1.34 and 1.35 for the venular trees; the dimension for the DLA models were higher than that for vessels; the log-log graphs were straight, but with varying local slopes, both for vascular trees and for fractals and non-fractals. This results leads to the following conclusions: the estimation of the fractal dimensions for retinal vasculature is dependent on its skeletization and on the segmentation and calculation methods; log-log graphs are not suitable as a fractality test; the means of the information and box counting dimensions for the normal eyes were 1.47 and 1.43, respectively, and the DLA model with optic disc seeding is not sufficient for retinal vascularization modeling

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work addresses issues related to analysis and development of multivariable predictive controllers based on bilinear multi-models. Linear Generalized Predictive Control (GPC) monovariable and multivariable is shown, and highlighted its properties, key features and applications in industry. Bilinear GPC, the basis for the development of this thesis, is presented by the time-step quasilinearization approach. Some results are presented using this controller in order to show its best performance when compared to linear GPC, since the bilinear models represent better the dynamics of certain processes. Time-step quasilinearization, due to the fact that it is an approximation, causes a prediction error, which limits the performance of this controller when prediction horizon increases. Due to its prediction error, Bilinear GPC with iterative compensation is shown in order to minimize this error, seeking a better performance than the classic Bilinear GPC. Results of iterative compensation algorithm are shown. The use of multi-model is discussed in this thesis, in order to correct the deficiency of controllers based on single model, when they are applied in cases with large operation ranges. Methods of measuring the distance between models, also called metrics, are the main contribution of this thesis. Several application results in simulated distillation columns, which are close enough to actual behaviour of them, are made, and the results have shown satisfactory

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work intends to analyze the behavior of the gas flow of plunger lift wells producing to well testing separators in offshore production platforms to aim a technical procedure to estimate the gas flow during the slug production period. The motivation for this work appeared from the expectation of some wells equipped with plunger lift method by PETROBRAS in Ubarana sea field located at Rio Grande do Norte State coast where the produced fluids measurement is made in well testing separators at the platform. The oil artificial lift method called plunger lift is used when the available energy of the reservoir is not high enough to overcome all the necessary load losses to lift the oil from the bottom of the well to the surface continuously. This method consists, basically, in one free piston acting as a mechanical interface between the formation gas and the produced liquids, greatly increasing the well s lifting efficiency. A pneumatic control valve is mounted at the flow line to control the cycles. When this valve opens, the plunger starts to move from the bottom to the surface of the well lifting all the oil and gas that are above it until to reach the well test separator where the fluids are measured. The well test separator is used to measure all the volumes produced by the well during a certain period of time called production test. In most cases, the separators are designed to measure stabilized flow, in other words, reasonably constant flow by the use of level and pressure electronic controllers (PLC) and by assumption of a steady pressure inside the separator. With plunger lift wells the liquid and gas flow at the surface are cyclical and unstable what causes the appearance of slugs inside the separator, mainly in the gas phase, because introduce significant errors in the measurement system (e.g.: overrange error). The flow gas analysis proposed in this work is based on two mathematical models used together: i) a plunger lift well model proposed by Baruzzi [1] with later modifications made by Bolonhini [2] to built a plunger lift simulator; ii) a two-phase separator model (gas + liquid) based from a three-phase separator model (gas + oil + water) proposed by Nunes [3]. Based on the models above and with field data collected from the well test separator of PUB-02 platform (Ubarana sea field) it was possible to demonstrate that the output gas flow of the separator can be estimate, with a reasonable precision, from the control signal of the Pressure Control Valve (PCV). Several models of the System Identification Toolbox from MATLAB® were analyzed to evaluate which one better fit to the data collected from the field. For validation of the models, it was used the AIC criterion, as well as a variant of the cross validation criterion. The ARX model performance was the best one to fit to the data and, this way, we decided to evaluate a recursive algorithm (RARX) also with real time data. The results were quite promising that indicating the viability to estimate the output gas flow rate from a plunger lift well producing to a well test separator, with the built-in information of the control signal to the PCV