1000 resultados para Modelos de medida


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esse trabalho tem por objetivo geral o desenvolvimento de uma metodologia de modelagem numérica que represente o escoamento e o fenômeno de mistura em um modelo físico de panela de aciaria de base elíptica. Os objetivos específicos do trabalho são: o estudo dos coeficientes das forças de interação líquido-bolha, dos modelos de turbulência e da mudança do formato da base da panela de circular para elíptica. O escoamento e o fenômeno de mistura foram calculados através do método de Volume Finitos baseado em Elementos por meio do software CFX5.7 da Ansys. Dados da literatura e ensaios em modelo físico, realizados em laboratório, auxiliaram na validação dos modelos numéricos. O estudo dos coeficientes das forças de não-arrasto mostrou que os resultados da distribuição de ar ao longo da altura do banho mudam com a variação dos coeficientes. No final, coeficientes para 3 configurações de panelas em diferentes vazões de ar foram encontrados. Com relação ao estudo dos modelos de turbulência, observou-se que para a solução do escoamento e do fenômeno de mistura em uma panela de base circular, o k-ε é o modelo de turbulência mais indicado. Por outro lado, para uma panela de base elíptica, o modelo RSM mostrou-se o mais adequado. Finalmente, com relação ao estudo da mudança do formato da base da panela, observou-se que os tempos de mistura de uma panela de base elíptica são maiores que uma de base circular e aumentam à medida que a vazão de ar diminui.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta as principais aplicações de técnicas de gestão de riscos ao estudo de interrupções em cadeias de fornecimento, tendo como motivação o caso do fornecimento de energia elétrica, assunto de extrema relevância para o Brasil. Neste sentido, o cálculo do “custo do déficit” ou perda de produção dada uma falha no fornecimento de energia elétrica (parâmetro utilizado em todo o planejamento do setor elétrico brasileiro), foi escolhido como fator relevante a ser analisado. As principais metodologias existentes para a apuração desse parâmetro são apresentadas fazendo uma comparação com aquela atualmente em uso no Brasil. Adicionalmente, apresentamos uma proposta de implementação para as metodologias alternativas, utilizadas no exterior, e baseadas no conceito de VOLL (“Value of Lost Load”) - medida do valor da escassez de energia para empresas ou consumidores individuais e fundamental para o desenho de programas de gerenciamento de demanda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O mercado brasileiro de Telecomunicações e Tecnologia da Informação (TIC) tem importância significativa para o desenvolvimento do Brasil, haja vista a evolução do mercado de telefonia móvel, que cresceu 600% nos últimos dez anos. A indústria de telecomunicações, que representa 4,7 % do PIB brasileiro (TELEBRASIL, 2013), passou a ter uma nova dinâmica a partir da elaboração da Lei Geral de Telecomunicações em 1997 e, posteriormente, com a privatização do setor. Esta rápida transformação da cadeia de valor do setor foi também impulsionada pela evolução das tecnologias e de novas arquiteturas de redes. Ademais, a utilização de tecnologias digitais, como aplicativos/APPs e a própria internet, tornou a cadeia de telecomunicações mais complexa, possibilitando o surgimento de novos atores e o desenvolvimento de novos serviços, modelos de negócios e precificação (SCHAPIRO e VARIAN, 2003). Este estudo tem como objetivo analisar os direcionadores e barreiras na adoção de novos modelos de precificação de serviços no mercado brasileiro de telecomunicações, considerando a transformação e evolução do setor. O estudo foi elaborado por meio de uma estratégia de pesquisa qualitativo-exploratória e construtivista baseando-se na abordagem Multinível (POZZEBON e DINIZ, 2012), que trabalha o contexto, o processo e as interações entre os grupos sociais relevantes. A partir desta análise, foi possível compreender os critérios, direcionadores e barreiras no processo de adoção de novos modelos de precificação, as quais destacam-se as demandas dos usuários, a alta concorrência e a necessidade de aumento do retorno do investimento como os direcionadores mais relevantes, enquanto que a qualidade das redes, a falta de sistemas, a situação financeira das operadoras, a complexidade da regulamentação e o surgimento de grupos sociais distintos dentro da empresa são apontados como as barreiras mais críticas neste processo. Dentro deste contexto, os modelos de precificação emergentes abrangem o empacotamento de serviços, ofertas por tempo limitado, modelos de patrocínio/gratuidade, em conjunto com exploração de novas áreas de negócios. Este estudo proporciona uma contribuição prática e acadêmica na medida em que permite uma melhor compreensão do dinamismo do mercado e suporte para as áreas de marketing estratégico e tático das operadoras, bem como na formulação de políticas e regulamentação do setor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desta Tese é compreender o papel dos estados brasileiros nas relações intergovernamentais no Brasil. Especificamente, busca-se analisar se os mesmos podem desempenhar um papel de coordenação estadual, como o governo federal o faz em algumas Federações com a finalidade de reduzir diversidades, principalmente, desigualdades socioeconômicas e institucionais. Essa relação é analisada na Educação, já que a Constituição Federal de 1988 determinou que estados e municípios compartilhem competências na oferta do ensino fundamental e que deve haver colaboração, especialmente, nessa etapa do ensino. No entanto, a trajetória dessa política é caracterizada por uma grande diversidade na sua oferta e na cooperação entre os estados e os municípios, na medida em que o regime de colaboração nunca foi regulamentado. A pesquisa envolveu o entendimento sobre a trajetória da política educacional, o funcionamento do Sistema Nacional de Educação, as relações entre estados e municípios na Educação, os resultados da cooperação nas políticas municipais de Educação em quatro estados – Ceará, Mato Grosso do Sul, Pará e São Paulo – e nos resultados educacionais. Como resultado, conclui-se que há diferentes modelos de cooperação entre os governos subnacionais na Educação, sendo que, somente o caso cearense se caracteriza como de coordenação estadual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo busca identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real efetiva e analisar a robustez dessas previsões. Foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Utilizando esse método, encontramos modelos que cointegravam entre si, para os países analisados. A partir desses modelos, foram feitas previsões fora da amostra a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio (EQM) e Modelo do Conjunto de Confiança de Hansen (MCS) utilizando um modelo de passeio aleatório do câmbio real como benchmark. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da taxa de câmbio real efetivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This article refers to a research which tries to historically (re)construct the conceptual development of the Integral and Differential calculus, taking into account its constructing model feature, since the Greeks to Newton. These models were created by the problems that have been proposed by the history and were being modified by the time the new problems were put and the mathematics known advanced. In this perspective, I also show how a number of nature philosophers and mathematicians got involved by this process. Starting with the speculations over scientific and philosophical natures done by the ancient Greeks, it culminates with Newton s work in the 17th century. Moreover, I present and analyze the problems proposed (open questions), models generated (questions answered) as well as the religious, political, economic and social conditions involved. This work is divided into 6 chapters plus the final considerations. Chapter 1 shows how the research came about, given my motivation and experience. I outline the ways I have gone trough to refine the main question and present the subject of and the objectives of the research, ending the chapter showing the theoretical bases by which the research was carried out, naming such bases as Investigation Theoretical Fields (ITF). Chapter 2 presents each one of the theoretical bases, which was introduced in the chapter 1 s end. In this discuss, I try to connect the ITF to the research. The Chapter 3 discusses the methodological choices done considering the theoretical fields considered. So, the Chapters 4, 5 and 6 present the main corpus of the research, i.e., they reconstruct the calculus history under a perspective of model building (questions answered) from the problems given (open questions), analyzing since the ancient Greeks contribution (Chapter 4), pos- Greek, especially, the Romans contribution, Hindus, Arabian, and the contribution on the Medium Age (Chapter 5). I relate the European reborn and the contribution of the philosophers and scientists until culminate with the Newton s work (Chapter 6). In the final considerations, it finally gives an account on my impressions about the development of the research as well as the results reached here. By the end, I plan out a propose of curse of Differential and Integral Calculus, having by basis the last three chapters of the article

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work addresses issues related to analysis and development of multivariable predictive controllers based on bilinear multi-models. Linear Generalized Predictive Control (GPC) monovariable and multivariable is shown, and highlighted its properties, key features and applications in industry. Bilinear GPC, the basis for the development of this thesis, is presented by the time-step quasilinearization approach. Some results are presented using this controller in order to show its best performance when compared to linear GPC, since the bilinear models represent better the dynamics of certain processes. Time-step quasilinearization, due to the fact that it is an approximation, causes a prediction error, which limits the performance of this controller when prediction horizon increases. Due to its prediction error, Bilinear GPC with iterative compensation is shown in order to minimize this error, seeking a better performance than the classic Bilinear GPC. Results of iterative compensation algorithm are shown. The use of multi-model is discussed in this thesis, in order to correct the deficiency of controllers based on single model, when they are applied in cases with large operation ranges. Methods of measuring the distance between models, also called metrics, are the main contribution of this thesis. Several application results in simulated distillation columns, which are close enough to actual behaviour of them, are made, and the results have shown satisfactory

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No espaço tridimensional, um corpo rígido qualquer pode efetuar translações e ou rotações em relação a cada um de seus eixos. Identificar com precisão o deslocamento realizado por um corpo é fundamental para alguns tipos de sistemas em engenharia. Em sistemas de navegação inercial tradicionais, utilizam-se acelerômetros para reconhecer a aceleração linear e giroscópios para reconhecer a velocidade angular registrada durante o deslocamento. O giroscópio, entretanto, é um dispositivo de custo mais elevado e com alto consumo de energia quando comparado a um acelerômetro. Essa desvantagem deu origem a pesquisas a respeito de sistemas e unidades de medidas inerciais que não utilizam giroscópios. A ideia de utilizar apenas acelerômetros para calcular o movimento linear e angular surgiu no início da década de 60 e vem se desenvolvendo através de modelos que variam no número de sensores, na maneira como estes são organizados e no modelo matemático que é utilizado para derivar o movimento do corpo. Esse trabalho propõe um esquema de configuração para construção de uma unidade de medida inercial que utiliza três acelerômetros triaxiais. Para identificar o deslocamento de um corpo rígido a partir deste esquema, foi utilizado um modelo matemático que utiliza apenas os nove sinais de aceleração extraídos dos três sensores. A proposta sugere que os sensores sejam montados e distribuídos em formato de L . Essa disposição permite a utilização de um único plano do sistema de coordenadas, facilitando assim a instalação e configuração destes dispositivos e possibilitando a implantação dos sensores em uma única placa de circuito integrado. Os resultados encontrados a partir das simulações iniciais demonstram a viabilidade da utilização do esquema de configuração proposto

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo tem como propósito ampliar as perspectivas de investigação no campo da moralidade. Mais especificamente, apresentamos uma proposta para o estudo da moralidade de adolescentes autores de infração, utilizando o referencial teórico=metodológico da Teoria dos Modelos Organizadores do Pensamento. Buscamos, através da idéia de complexidade, compreender o funcionamento cognitivo na elaboração de raciocínios morais diante de situações de conflito. Com essa perspectiva, fizemos uma investigação que teve por objetivo identificar os modelos organizadores aplicados na resolução de conflitos morais hipotéticos por 20 adolescentes masculinos autores de infração que cumprem medida socioeducativa. Através de entrevistas, narramos uma situação de conflito moral envolvendo uma relação de amizade, agressão física e roubo. Foram identificados 10 modelos organizadores, os quais foram agrupados em 3 categorias. Tais modelos refletiram a diversidade e as regularidades presentes nos raciocínios elaborados para resolver os conflitos apresentados. Concluiu-se que a variedade dos modelos organizadores identificados evidencia a importância dos conteúdos na construção dos raciocínios morais.