931 resultados para estimação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os objetivos deste trabalho foram desenvolver e propor um procedimento para quantificação do volume de árvores em plantios clonais de eucalipto não desbastados. Para quantificar o volume de árvores, foram utilizados dados de 2.036 árvores de clones comerciais de eucalipto pertencentes à empresa CAF Santa Bárbara, onde foram ajustadas as equações de volume de cada estrato, sendo este determinado pela região e pelo clone, e as idades dos clones variaram de 4 a 5 anos. Para cada árvore foi ajustado um modelo de afilamento. Posteriormente, foram realizados abates de três árvores de clones novos, que não possuíam equação de volume específica, sendo uma árvore "pequena", uma "média" e uma "grande" em termos de dap e altura total. Com as três árvores cubadas, foi ajustado o modelo de afilamento, considerando-se as três árvores. De posse das estimativas dos parâmetros, foi calculada uma medida de similaridade com os parâmetros das equações de afilamento ajustadas para as 2.036 árvores dos clones comerciais e o parâmetro da equação do clone novo. A árvore do clone comercial que apresentou o menor valor de distância euclidiana, em comparação com o clone novo, foi considerada a mais similar; portanto, a equação de volume desse clone comercial foi usada para estimar o volume de árvores desse novo clone. Tal procedimento foi denominado método da similaridade de perfis. Esse método pode ser usado para estimar volume de árvores dos clones que não têm equações específicas, gerando estimativas semelhantes ao comparar dados observados e estimados, tanto de árvores individuais quanto de todo um talhão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rede neural artificial consiste em um conjunto de unidades que contêm funções matemáticas, unidas por pesos. As redes são capazes de aprender, mediante modificação dos pesos sinápticos, e generalizar o aprendizado para outros arquivos desconhecidos. O projeto de redes neurais é composto por três etapas: pré-processamento, processamento e, por fim, pós-processamento dos dados. Um dos problemas clássicos que podem ser abordados por redes é a aproximação de funções. Nesse grupo, pode-se incluir a estimação do volume de árvores. Foram utilizados quatro arquiteturas diferentes, cinco pré-processamentos e duas funções de ativação. As redes que se apresentaram estatisticamente iguais aos dados observados também foram analisadas quanto ao resíduo e à distribuição dos volumes e comparadas com a estimação de volume pelo modelo de Schumacher e Hall. As redes neurais formadas por neurônios, cuja função de ativação era exponencial, apresentaram estimativas estatisticamente iguais aos dados observados. As redes treinadas com os dados normalizados pelo método da interpolação linear e equalizados tiveram melhor desempenho na estimação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivos aumentar a precisão das estimativas de altura de árvores e diminuir a necessidade de aferição da altura em campo, levando à redução dos custos no inventário florestal através da construção e validação de um modelo de estimação da altura de árvores em povoamentos de eucalipto com a utilização de redes neurais artificiais. Os dados utilizados consistiram em três clones, compreendendo cerca de 3.000 árvores em 145 parcelas permanentes com área média de 215 m², mensuradas em seis ocasiões (idades). As variáveis utilizadas para estimar a altura total das árvores dividiram-se em quantitativas: idade (meses), diâmetro com casca a 1,30 m de altura a partir da superfície do solo (dap) e altura dominante média da parcela; e qualitativa: tipo de solo com as respectivas classes. Para validação e aplicação da metodologia proposta, foram consideradas duas situações: (a) quando há a introdução de um novo material genético e não existem informações sobre a relação hipsométrica deste; (b) quando já se conhece a tendência de crescimento em altura dos povoamentos implantados, obtida pela existência de medições em parcelas de IFC. Com as metodologias testadas, obtiveram-se valores de coeficiente de correlação superiores a 0,99. As metodologias mostraram-se eficientes para alcançar os objetivos propostos, garantindo alta precisão das estimativas obtidas através das redes neurais artificiais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivou-se propor neste estudo uma metodologia com a utilização de Redes Neurais Artificiais (RNA), para redução do número de árvores a serem cubadas durante o processo de geração de equações volumétricas. Os dados utilizados neste estudo foram provenientes de cubagens de 2.700 árvores de povoamentos clonais de eucalipto localizados no Sul da Bahia. O treinamento das RNA foi feito visando à obtenção de redes para a estimação do volume com e sem casca. Como variáveis de entrada, utilizaram-se o diâmetro à altura do peito - 1,30 m (dap), a altura e os diâmetros nas posições de 0,0; 0,5; 1,0; 1,5; 2,0; e 4,0 m do solo e os volumes obtidos até 2 e 4 m. A precisão do método foi feita com a aplicação do teste L&O. Avaliaram-se também a dispersão dos erros percentuais, o histograma de frequência dos erros percentuais e a raiz do erro quadrático médio (RMSE). A metodologia proposta neste estudo mostrou-se eficiente para a estimação do volume de árvores, sendo indicada para a obtenção do volume total com e sem casca de povoamentos de eucalipto, possibilitando a redução dos custos para a construção de equações volumétricas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO O Estado do Paraná caracteriza-se por uma grande variabilidade de épocas de semeadura (DS) e, consequentemente, pelo desenvolvimento máximo vegetativo (DMDV), colheita (DC) e ciclo (CI) para a cultura da soja. O objetivo deste trabalho foi estimar essas datas para o período de primavera-verão do ano-safra de 2011/2012, por meio de séries temporais de imagens do Índice de Vegetação Realçado (do inglês Enhanced Vegetation Index - EVI) do sensor Modis (Moderate Resolution Imaging Spectroradiometer). Gerou-se um perfil espectrotemporal médio de EVI, considerando todos os pixels mapeados como soja dentro de cada município. Estes dados serviram de entrada no software Timesat para estimar os decêndios do ciclo da cultura (DS, DMDV, DC e CI) por municípios. Os resultados mostraram que existe grande variabilidade de datas de plantio em diferentes mesorregiões do Estado. Verificaram-se também divergências entre os resultados encontrados e os dados oficiais de DS e DC. A maior parte da semeadura (65,16%) esteve entre o terceiro decêndio de outubro e o primeiro decêndio de novembro. A maior parte da área de soja do Estado do Paraná (65,46%) teve seu DMDV em janeiro e colheita em março (53,92%).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A dinâmica da população de plantas daninhas pode ser representada por um sistema de equações que relaciona as densidades de sementes produzidas e de plântulas em áreas de cultivo. Os valores dos parâmetros dos modelos podem ser inferidos diretamente de experimentação e análise estatística ou extraídos da literatura. O presente trabalho teve por objetivo estimar os parâmetros do modelo de densidade populacional de plantas daninhas, a partir de um experimento conduzido na área experimental da Embrapa Milho e Sorgo, Sete Lagoas, MG, via os procedimentos de inferências clássica e Bayesiana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo de gestão de risco consiste, no estudo estruturado de todos os aspetos inerentes ao trabalho e é composto pela análise de risco, avaliação de risco e controlo de risco. Na análise de risco, é efetuada a identificação de todos os perigos presentes e a estimação da probabilidade e da gravidade, de acordo com o método de avaliação de risco escolhido. Este estudo centra-se na primeira etapa do processo de avaliação de risco, mais especificamente na análise de risco e nos marcadores de informação necessários para se efetuar a estimação de risco na industria extrativa a céu aberto (atividade de risco elevado). Considerando que o nível de risco obtido, depende fundamentalmente da estimação da probabilidade e da gravidade, ajustada a cada situação de risco, procurou-se identificar os marcadores e compreender a sua influência nos resultados da avaliação de risco (magnitude). O plano de trabalhos de investigação foi sustentado por uma metodologia qualitativa de recolha, registo e análise dos dados. Neste estudo, a recolha de informação foi feita com recurso às seguintes técnicas de investigação: - Observação estruturada e planeada do desmonte da rocha com recurso a explosivos; - Entrevista individual de formadores e gestores de risco (amostragem de casos típicos); Na análise e discussão qualitativa dos dados das entrevistas recorreu-se às seguintes técnicas: - Triangulação de analistas e tratamento de dados cognitiva (técnicas complementares); - Aposição dos marcadores de informação, versus, três métodos de avaliação de risco validados. Os resultados obtidos apontam no sentido das hipóteses de investigação formuladas, ou seja, o tipo de risco influi da seleção da informação e, existem diferenças significativas no nível de risco obtido, quando na estimação da probabilidade e da gravidade são utilizados marcadores de informação distintos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho estima uma nova relação entre emprego e inflação para o Brasil, tendo como pano de fundo hipóteses propostas pelo arcabouço neo-keynesiano. Quatro hipóteses são testadas e sustentadas ao longo de todo o trabalho: i) os agentes não possuem racionalidade perfeita; ii) a imperfeição no processo de formação das expectativas dos agentes pode ser um fator determinante no componente inercial da inflação brasileira; iii) a inflação possui um componente inercial autônomo, que não depende de choques verificados em mercados isolados; e, iv) relações não-lineares entre inflação e desemprego são capazes de fornecer melhores explicações para o comportamento da economia nos últimos 12 anos. Enquanto as duas primeiras hipóteses são verificadas através de um modelo com mudanças markovianas, as duas últimas são testadas a partir da estimação de uma Curva de Phillips convexa, estimadas pelo Filtro de Kalman. Entretanto, mesmo fazendo uso destas estimativas, as funções de resposta da política monetária apresentam as mesmas propriedades de estimativas tradicionais para o Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo pretende analisar o mercado brasileiro de alumínio primário, através da elaboração e simulação dinâmica de um modelo econométrico, com capacidade de explicar satisfatoriamente as relações típicas das variáveis econômicas consideradas neste mercado, conforme são postuladas pela teoria da empresa em competição imperfeita.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho comparamos as Curvas IS e de Phillips, derivadas a partir de modelos “tradicionais” e micro-fundamentados. Além disso, estimamos essas curvas para dados trimestrais brasileiros no período de 1994 a 2001. Na estimativa da IS foi usada a técnica de vetores de co-integração, já que esta curva é não balanceada – o hiato do produto é integrado de ordem zero e os regressandos são integrados de ordem um.