996 resultados para Teoria da previsão
Resumo:
Forensic speaker comparison exams have complex characteristics, demanding a long time for manual analysis. A method for automatic recognition of vowels, providing feature extraction for acoustic analysis is proposed, aiming to contribute as a support tool in these exams. The proposal is based in formant measurements by LPC (Linear Predictive Coding), selectively by fundamental frequency detection, zero crossing rate, bandwidth and continuity, with the clustering being done by the k-means method. Experiments using samples from three different databases have shown promising results, in which the regions corresponding to five of the Brasilian Portuguese vowels were successfully located, providing visualization of a speaker’s vocal tract behavior, as well as the detection of segments corresponding to target vowels.
Resumo:
O conhecimento prévio do valor da carga é de extrema importância para o planejamento e operação dos sistemas de energia elétrica. Este trabalho apresenta os resultados de um estudo investigativo da aplicação de Redes Neurais Artificiais do tipo Perceptron Multicamadas com treinamento baseado na Teoria da Informação para o problema de Previsão de Carga a curto prazo. A aprendizagem baseada na Teoria da Informação se concentra na utilização da quantidade de informação (Entropia) para treinamento de uma rede neural artificial. Dois modelos previsores são apresentados sendo que os mesmos foram desenvolvidos a partir de dados reais fornecidos por uma concessionária de energia. Para comparação e verificação da eficiência dos modelos propostos um terceiro modelo foi também desenvolvido utilizando uma rede neural com treinamento baseado no critério clássico do erro médio quadrático. Os resultados alcançados mostraram a eficiência dos sistemas propostos, que obtiveram melhores resultados de previsão quando comparados ao sistema de previsão baseado na rede treinada pelo critério do MSE e aos sistemas previsores já apresentados na literatura.
Resumo:
A argila encontrada na Barra da Tijuca, Rio de Janeiro, é conhecida por ser muito mole e de peso específico bastante baixo. Passados 17 anos após a execução de um aterro em um dos depósitos argilosos da região, foram realizados ensaios de piezocone e SPT para aferir a espessura atual da camada mole. Tendo-se as espessuras originais da camada, determinadas a partir de ensaios de palheta e SPT na época da realização da obra, foi possível,assim, determinar o recalque que realmente ocorreu. O recalque primário foi calculado através dos parâmetros de compressibilidade previamente conhecidos daquele material. Foi aplicada a correção devido à submersão do aterro e, para isso, foi desenvolvida neste trabalho uma nova metodologia de cálculo para este efeito, considerando a submersão do aterro de forma gradual em todo o seu desenvolvimento matemático. Através da diferença entre o recalque total verificado nos ensaios e o recalque primário calculado, determinou-se a magnitude do recalque secundário. Com isso, estimou-se o OCR secundário do local. Este parâmetro surge da teoria que considera que os recalques secundários também ocorrem devido à variação das tensões efetivas, mas, nesse caso, horizontais. As principais conclusões desta pesquisa apontam para um valor de OCR secundário maior do que aquele já conhecido da argila de Sarapuí, que serviu de base para a referida teoria. Além disso, a proposta de cálculo do efeito da submersão se mostrou fácil e rápida de ser aplicada e forneceu resultados próximos daqueles obtidos pelas metodologias usuais.
Resumo:
A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
Redes Bayesianas podem ser ferramentas poderosas para construção de modelos econômico-financeiros utilizados para auxílio à tomada de decisão em situações que envolvam grau elevado de incerteza. Relações não-lineares entre variáveis não são capturadas em modelos econométricos lineares. Especialmente em momentos de crise ou de ruptura, relações lineares, em geral, não mais representam boa aproximação da realidade, contribuindo para aumentar a distância entre os modelos teóricos de previsão e dados reais. Neste trabalho, é apresentada uma metodologia para levantamento de dados e aplicação de Redes Bayesianas na obtenção de modelos de crescimento de fluxos de caixa de empresas brasileiras. Os resultados são comparados a modelos econométricos de regressão múltipla e finalmente comparados aos dados reais observados no período. O trabalho é concluído avaliando-se as vantagens de desvantagens da utilização das Redes de Bayes para esta aplicação.
Resumo:
A previsão de demanda é uma atividade relevante pois influencia na tomada de decisão das organizações públicas e privadas. Este trabalho procura identificar modelos econométricos que apresentem bom poder preditivo para a demanda automotiva brasileira num horizonte de longo prazo, cinco anos, através do uso das séries de vendas mensais de automóveis, veículos comerciais leves e total, o período amostral é de 1970 a 2010. Foram estimados e avaliados os seguintes modelos: Auto-regressivo (Box-Jenkins, 1976), Estrutural (Harvey, 1989) e Mudança de Regime (Hamilton, 1994), incluindo efeitos calendário e dummies além dos testes de raízes unitárias sazonais e não-sazonais para as séries. A definição da acurácia dos modelos baseou-se no Erro Quadrático Médio (EQM) dos resultados apresentados na simulação da previsão de demanda dos últimos quinze anos (1995 a 2010).
Resumo:
A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Ciências Ambientais - Sorocaba
Resumo:
In the last decades the study of integer-valued time series has gained notoriety due to its broad applicability (modeling the number of car accidents in a given highway, or the number of people infected by a virus are two examples). One of the main interests of this area of study is to make forecasts, and for this reason it is very important to propose methods to make such forecasts, which consist of nonnegative integer values, due to the discrete nature of the data. In this work, we focus on the study and proposal of forecasts one, two and h steps ahead for integer-valued second-order autoregressive conditional heteroskedasticity processes [INARCH (2)], and in determining some theoretical properties of this model, such as the ordinary moments of its marginal distribution and the asymptotic distribution of its conditional least squares estimators. In addition, we study, via Monte Carlo simulation, the behavior of the estimators for the parameters of INARCH(2) processes obtained using three di erent methods (Yule- Walker, conditional least squares, and conditional maximum likelihood), in terms of mean squared error, mean absolute error and bias. We present some forecast proposals for INARCH(2) processes, which are compared again via Monte Carlo simulation. As an application of this proposed theory, we model a dataset related to the number of live male births of mothers living at Riachuelo city, in the state of Rio Grande do Norte, Brazil.
Resumo:
In the last decades the study of integer-valued time series has gained notoriety due to its broad applicability (modeling the number of car accidents in a given highway, or the number of people infected by a virus are two examples). One of the main interests of this area of study is to make forecasts, and for this reason it is very important to propose methods to make such forecasts, which consist of nonnegative integer values, due to the discrete nature of the data. In this work, we focus on the study and proposal of forecasts one, two and h steps ahead for integer-valued second-order autoregressive conditional heteroskedasticity processes [INARCH (2)], and in determining some theoretical properties of this model, such as the ordinary moments of its marginal distribution and the asymptotic distribution of its conditional least squares estimators. In addition, we study, via Monte Carlo simulation, the behavior of the estimators for the parameters of INARCH(2) processes obtained using three di erent methods (Yule- Walker, conditional least squares, and conditional maximum likelihood), in terms of mean squared error, mean absolute error and bias. We present some forecast proposals for INARCH(2) processes, which are compared again via Monte Carlo simulation. As an application of this proposed theory, we model a dataset related to the number of live male births of mothers living at Riachuelo city, in the state of Rio Grande do Norte, Brazil.
Modelos estocásticos de crescimento individual e desenvolvimento de software de estimação e previsão
Resumo:
Os modelos de crescimento individual são geralmente adaptações de modelos de crescimento de populações. Inicialmente estes modelos eram apenas determinísticos, isto é, não incorporavam as flutuações aleatórias do ambiente. Com o desenvolvimento da teoria do cálculo estocástico podemos adicionar um termo estocástico, que representa a aleatoriedade ambiental que influencia o processo em estudo. Actualmente, o estudo do crescimento individual em ambiente aleatório é cada vez mais importante, não apenas pela vertente financeira, mas também devido às suas aplicações nas áreas da saúde e da pecuária, entre outras. Problemas como o ajustamento de modelos de crescimento individual, estimação de parâmetros e previsão de tamanhos futuros são tratados neste trabalho. São apresentadas novas aplicações do modelo estocástico monomolecular generalizado e um novo software de aplicação deste e de outros modelos. ABSTRACT: Individual growth models are usually adaptations of growth population models. Initially these models were only deterministic, that is, they did not incorporate the random fluctuations of the environment. With the development of the theory of stochastic calculus, we can add a stochastic term that represents the random environmental influences in the process under study. Currently, the study of individual growth in a random environment is increasingly important, not only by the financial scope but also because of its applications in health care and livestock production, among others. Problems such as adjustment of an individual growth model, estimation of parameters and prediction of future sizes are treated in this work. New applications of the generalized stochastic monomolecular model and a new software applied to this and other models are presented.
Resumo:
Tutkimuksen kohteena on (uus)kreationistinen älykkään suunnittelun (Intelligent Design) teoria. Tutkimus on luonteeltaan teoreettinen ja lukeutuu kognitiivisen uskonnontutkimuksen alaan. Näkökulmana on tarkastella älykkään suunnittelun teorian mukaista ajattelua ihmisen intuitiivisena taipumuksena ymmärtää luontoa ja luonnossa esiintyviä mekanismeja. Esimerkkinä intuitiivisesta päättelystä tarkastellaan erityisesti kansanomaisen psykologian (folk psychology) ja kansanomaisen biologian (folk biology) mukaista ajattelua. Tutkimuksessa kysytään: ilmeneekö älykkään suunnittelun teoriassa mahdollisesti kansanomaisen psykologian ja biologian mukaista ajattelua? Ensimmäiseksi käsitteellistetään älykkään suunnittelun teoria ja esitellään tutkimuksen aineisto. Esille tulevat yhteydet Yhdysvaltojen uskonnolliseen ilmapiiriin, kristillisten kreationististen suuntausten jatkumoon sekä evoluutioteoriaan. Aineisto koostuu älykkään suunnittelun teoriaa kehitelleen Michael J. Behen todistajanlausunnosta Doverin oikeudenkäynnissä, jossa arvioitavana oli älykkään suunnittelun teorian mahdollinen tieteellisyys ja uskonnollisuus. Tutkimuksen teoreettisessa viitekehyksessä määritellään tarkemmin, minkälaisiin ajattelutapoihin kansanomaisella, tieteellisellä ja uskonnollisella ajattelulla tutkimuksessa viitataan. Tämän jälkeen esitellään teoreettiset työvälineet - kansanomaisen psykologia ja biologia. Teoriaosuudessa tarkennetaan myös kansanomaisen, tieteellisen ja uskonnollisen ajattelun suhdetta intuitiiviseen ja intuitionvastaiseen ajatteluun, sekä määritellään kolmas termi epäintuitiivisuus. Teoriaosuus perustuu pääasiassa kognitiivisen uskonnontutkimuksen alaan lukeutuvien tutkijoiden, kuten Scott Atranin, Pascal Boyerin, Robert N. McCauleyn ja Ilkka Pyysiäisen julkaisuihin. Tutkimuksessa tarkastellaan myös evoluutioteorian ymmärtämistä tutkineen E. Margaret Evansin tutkimuksia. Analyysissä teoreettisia huomioita havainnollistetaan aineistosta löydettyjen esimerkkien kautta. Teoriaohjaavan sisällönanalyysin kautta Behen todistajanlausunnosta nostetaan esille erityisesti kansanomaisen psykologian ja biologian mukaiset ajattelun tavat. Analyysissä tarkastellaan, mitä tutkimuslöydösten avulla voidaan selittää älykkään suunnittelun teorian edustamasta kreationistisesta ajattelusta. Tutkimustuloksena esitetään, että älykkään suunnittelun teoria mukailee monilta osin sekä kansanomaista psykologiaa että kansanomaista biologiaa. Älykkään suunnittelun teoriassa muodostetaan intuitiivinen ideakokonaisuus maailmasta/ eliökunnasta ja sen aiheuttaneesta intuitionvastaisesta toimijasta. Mahdolliset epäintuitiiviset elementit, kuten luonnonvalinta ja kristillinen teologia, ovat teoriassa olemattomat. Tutkimuksessa osoitetaan, että kreationistista ajattelua voidaan perustellusti tarkastella ihmiselle intuitiivisena taipumuksena ymmärtää luontoa.