1000 resultados para erro médio quadrático (MSE)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve como objetivo adaptar e avaliar o modelo InfoCrop para simulação do rendimento de grãos da cultura do arroz irrigado, em Santa Maria - RS. O rendimento de grãos da cultura do arroz irrigado foi simulado, considerando-se três versões do modelo InfoCrop com adaptações para cultivares locais. Os rendimentos simulados foram comparados com os rendimentos observados no município de Santa Maria, no período 1996/1997 a 2008/2009, disponibilizados pelo Instituto Riograndense do Arroz (IRGA), e com rendimentos de experimentos realizados na Universidade Federal de Santa Maria (UFSM), entre os anos agrícolas de 1998/1999 e 2005/2006. O modelo InfoCrop capturou a variação interanual do rendimento de grãos de arroz irrigado para o município de Santa Maria e dos experimentos realizados na UFSM. A raiz do erro quadrático médio da simulação de rendimento de grãos com a Versão 3 do modelo InfoCrop (melhor desempenho), considerando todo o conjunto de dados observados, foi de 0,850 Mg ha-1, com tendência de superestimativa, que pode ter ocorrido pelo fato de o modelo considerar uma situação de rendimento potencial, o que nem sempre acontece em lavouras comerciais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A carne mecanicamente separada (CMS) de frango é uma matéria-prima cárnea produzida através de equipamentos próprios do tipo desossadores mecânicos, utilizando partes de frango de baixo valor comercial como o dorso e o pescoço. Para determinação do teor de CMS utilizada na composição de produtos cárneos comerciais construímos uma rede neural artificial do tipo Backpropagation (BP). O objetivo deste trabalho foi treinar, testar e aplicar uma rede do tipo BP, com três camadas de neurônios, para previsão do teor de CMS a partir do teor de minerais de salsichas formuladas com diferentes teores de carne de frango mecanicamente separada. Utilizamos a composição mineral de 29 amostras de salsicha contendo diferentes teores de CMS e 22 amostras de produtos cárneos comerciais. A topologia da rede foi 5-5-1. O erro quadrático médio no conjunto de treinamento foi de 2,4% e na fase de teste foi de apenas 3,8%. No entanto, a aplicação da rede às amostras comerciais foi inadequada devido à diferença de ingredientes das salsichas usadas no treinamento e os ingredientes das amostras comerciais. A rede neural construída para determinação do teor de carne mecanicamente separada mostrou-se eficiente durante a fase de treinamento e teste da rede.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A espectroscopia na região do infravermelho próximo (NIR) foi usada para determinar o teor de umidade em amostras de café cru. Foram construídos modelos de regressão usando o método dos mínimos quadrados parciais (PLS) com diferentes pré-tratamentos de dados e 157 espectros NIR coletados de amostras de café usando um acessório de reflectância difusa, na região entre 4500 e 10000 cm-1. Os espectros originais passaram por diferentes transformações e pré-tratamentos matemáticos, como a transformação Kubelka-Munk; a correção multiplicativa de sinal (MSC); o alisamento com SPLINE e a média móvel, e os dados foram escalados pela variância. O modelo de regressão permitiu determinar o teor de umidade nas amostras de café cru com erro quadrático médio de calibração (SEC) de 0,569 g.100 g -1; erro quadrático médio de validação de 0,298 g.100 g -1; coeficiente de correlação (r) 0,712 e 0,818 para calibração e validação, respectivamente; e erro relativo médio de 4,1% para amostras de validação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente estudo teve como objetivos investigar o efeito da impregnação de sacarose e de açúcar invertido na taxa de secagem por convecção de abacaxi e avaliar a adequação de nove modelos matemáticos na descrição das curvas de secagem. Os testes experimentais foram feitos empregando-se coroas circulares de abacaxi in natura e pré-desidratadas por imersão-impregnação em soluções de sacarose (0,40, 0,44 e 0,47 g.mL-1) e em xarope de açúcar invertido. A pré-desidratação osmótica foi realizada a 40 e 50 ºC, por 2 horas, sob agitação de 60 min-1. A secagem por convecção foi feita em secador do tipo gabinete com bandejas, a 60 ºC e 1,25 m.s-1. O grau de ajuste dos modelos foi avaliado por meio do coeficiente de determinação, da raiz do erro quadrático médio, do erro percentual absoluto médio e por análise de dispersão de resíduos. As maiores taxas de secagem foram obtidas para amostras in natura; naquelas pré-desidratadas osmoticamente, o aumento da concentração da solução ocasionou a diminuição da taxa de secagem. O modelo de Wang e Singh foi o que melhor descreveu a secagem por convecção de coroas circulares de abacaxi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A fenilcetonúria (PKU) é um erro inato do metabolismo de aminoácidos causada pela deficiência da enzima fenilalanina hidroxilase hepática (PAH) que converte fenilalanina (Phe) em tirosina. Caracteriza-se clinicamente por retardo mental severo e, em alguns pacientes, por convulsões e eczema cutâneo. Bioquimicamente os pacientes afetados por esta doença apresentam acúmulo de Phe e seus metabólitos no sangue e nos tecidos. Phe é considerada o principal agente neurotóxico nesta doença, cujos mecanismos de neurotoxicidade são pouco conhecidos. O metabolismo energético cerebral é caracterizado por níveis altos e variáveis de síntese e de utilização de ATP. O cérebro contém altos níveis de creatinaquinase (CK), uma enzima que transferere reversivelmente um grupo fosforil entre ATP e creatina e entre ADP e fosfocreatina (PCr). Considerando que a CK parece estar envolvida em certas condições patológicas relacionadas com deficiência de energia cerebral e sabendo que a PKU está associada à redução de produção e de utilização de energia pelo cérebro, no presente trabalho verificamos a atividade da CK em homogeneizado total de córtex cerebral, cerebelo e cérebro médio de ratos Wistar submetidos aos modelos experimentais agudo e crônico de hiperfenilalaninemia (HPA) quimicamente induzida. Também investigamos o efeito in vitro da Phe e da α-metil-DL-fenilalanina (MePhe), um inibidor da PAH, nas mesmas estruturas de ratos Wistar de 22 dias de idade não tratados. Nossos resultados mostraram uma redução significativa na atividade da CK nas estruturas cerebrais estudadas de ratos sujeitos a HPA. Também verificamos que Phe e MePhe inibiram in vitro a atividade da CK nas mesmas estruturas. O estudo da interação cinética entre Phe e MePhe, sugere a existência de um único sítio de ligação na CK para os dois compostos. Considerando a importância da CK para a manutenção do metabolismo energético cerebral, nossos resultados sugerem que a alteração da homeostasia energética pode contribuir para a neurotoxicidade da Phe na PKU.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O propósito deste estudo é analisar a capacidade dos modelos econométricos ARMA, ADL, VAR e VECM de prever inflação, a fim de verificar qual modelagem é capaz de realizar as melhores previsões num período de até 12 meses, além de estudar os efeitos da combinação de previsões. Dentre as categorias de modelos analisados, o ARMA (univariado) e o ADL (bivariado e multivariado), foram testados com várias combinações de defasagens. Foram realizadas previsões fora-da-amostra utilizando 3 períodos distintos da economia brasileira e os valores foram comparados ao IPCA realizado, a fim de verificar os desvios medidos através do EQM (erro quadrático médio). Combinações das previsões usando média aritmética, um método de média ponderada proposto por Bates e Granger (1969) e média ponderada através de regressão linear múltipla foram realizadas. As previsões também foram combinadas com a previsão do boletim FOCUS do Banco Central. O método de Bates e Granger minimiza a variância do erro da combinação e encontra uma previsão com variância do erro menor ou igual à menor variância dos erros das previsões individuais, se as previsões individuais forem não viesadas. A conclusão é que, com as técnicas de séries temporais utilizadas, alguns modelos individuais fornecem previsões com EQM relativamente baixos. Destacando-se, dentre eles, os modelos VAR e VECM. Porém, com a combinação de previsões os EQM obtidos são menores do que os das previsões individuais usadas para combinação. Na maioria dos casos, a combinação de previsões com o boletim FOCUS também melhorou significativamente os resultados e forneceu previsões com EQM menores do que os das previsões individuais, destacando-se, dentre os métodos de combinações utilizados, a combinação via regressão linear múltipla.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This research evaluated the quality of the management of Brazilian stock funds on the period from January 1997 to October 2006. The analysis was based on the Modern Portfolio Theory measures of performance. In addition, this research evaluated the relevance of the performance measures The sample with 21 funds was extracted from the 126 largest Brasilian stock options funds because they were the only with quotas on the whole period. The monthly mean rate of return and the following indexes were calculated: total return, mean monthly return, Jensen Index, Treynor Index, Sharpe Index, Sortino Index, Market Timing and the Mean Quadratic Error. The initial analysis showed that the funds in the sample had different objectives and limitations. To make valuable comparisons, the ANBID (National Association of Investment Banks) categories were used to classify the funds. The measured results were ranked. The positions of the funds on the rankings based on the mean monthly return and the indexes of Jensen, Treynor, Sortino and Sharpe were similar. All of the ten ACTIVE funds of this research were above the benchmark (IBOVESPA index) in the measures above. Based on the CAPM, the managers of these funds got superior performance because they might have compiled the available information in a superior way. The six funds belonging to the ANBID classification of INDEXED got the first six positions in the ranking based on the Mean Quadratic Error. None of the researched funds have shown market timing skills to move the beta of their portfolios in the right direction to take the benefit of the market movements, at the significance level of 5%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A previsão de demanda é uma atividade relevante pois influencia na tomada de decisão das organizações públicas e privadas. Este trabalho procura identificar modelos econométricos que apresentem bom poder preditivo para a demanda automotiva brasileira num horizonte de longo prazo, cinco anos, através do uso das séries de vendas mensais de automóveis, veículos comerciais leves e total, o período amostral é de 1970 a 2010. Foram estimados e avaliados os seguintes modelos: Auto-regressivo (Box-Jenkins, 1976), Estrutural (Harvey, 1989) e Mudança de Regime (Hamilton, 1994), incluindo efeitos calendário e dummies além dos testes de raízes unitárias sazonais e não-sazonais para as séries. A definição da acurácia dos modelos baseou-se no Erro Quadrático Médio (EQM) dos resultados apresentados na simulação da previsão de demanda dos últimos quinze anos (1995 a 2010).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O ácido glutárico (AG) é o principal metabólito acumulado nos tecidos e fluidos corporais de pacientes afetados por acidemia glutárica tipo I (AG I), um erro inato do metabolismo da via catabólica dos aminoácidos lisina, hidroxilisina e triptofano causado pela deficiência severa da atividade da enzima glutaril-CoA desidrogenase. Clinicamente, os pacientes apresentam macrocefalia ao nascimento e uma hipomielinização ou desmielinização progressiva do córtex cerebral. Crises de descompensação metabólica com encefalopatia aguda ocorrem nestes pacientes principalmente entre 3 e 36 meses de vida, levando a uma marcada degeneração estriatal, que é a principal manifestação neurológica da doença. Depois de sofrer essas crises, os pacientes apresentam distonia e discinesia que progridem rapidamente e os incapacita para as atividades normais. Apesar dos sintomas neurológicos severos e achados neuropatológicos com atrofia cerebral, os mecanismos que levam ao dano cerebral na AG I são pouco conhecidos. O objetivo inicial do presente trabalho foi desenvolver um modelo animal por indução química de AG I através da injeção subcutânea do AG em ratos Wistar de forma que os níveis cerebrais deste composto atinjam concentrações similares aos encontrados em pacientes (~0,5 mM) para estudos neuroquímicos e comportamentais. Observamos que o AG atingiu concentrações no cérebro aproximadamente 10 vezes menores do que no plasma e 5 vezes menores do que nos músculos cardíaco e esquelético. O próximo passo foi investigar o efeito desse modelo sobre parâmetros do metabolismo energético no cérebro médio, bem como nos tecidos periféricos (músculo cardíaco e músculo esquelético) de ratos de 21 dias de vida Verificamos que a produção de CO2 a partir de glicose não foi alterada no cérebro médio dos ratos, bem como a atividade da creatina quinase no cérebro médio, músculo cardíaco e músculo esquelético. A atividade do complexo I-III da cadeia respiratória estava inibida em cérebro médio de ratos (25%), enquanto no músculo esquelético estavam inibidas as atividades dos complexos I-III (25%) e II-III (15%) e no músculo cardíaco não foi encontrada nenhuma inibição dos complexos da cadeia respiratória. Em seguida, testamos o efeito in vitro do AG sobre os mesmos parâmetros do metabolismo energético e observamos uma inibição das atividades do complexo I-III (20%) e da sucinato desidrogenase (30%) no cérebro médio na concentração de 5 mM do ácido. A produção de CO2, a partir de glicose e acetato, e a atividade da creatina quinase não foram alteradas pelo AG no cérebro médio dos animais. Assim, concluímos que o AG interfere no metabolismo energético celular, o que poderia explicar, ao menos em parte, a fisiopatogenia da AG I.