85 resultados para estimação de parâmetros

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo o desenvolvimento de um modelo dinâmico genérico para reatores de polimerização em leito fluidizado com capacidade de predizer produção, condições de operação e propriedades do produto, como o índice de fluidez e densidade. Este modelo genérico é então aplicado ao caso específico da polimerização de eteno em reatores do processo UNIPOL, utilizando catalisador de óxido de cromo. De modo a obter um modelo validado, os parâmetros cinéticos são estimados utilizando experimentos realizados em uma planta piloto UNIPOL. Também é apresentado um modelo simplificado em relação ao modelo proposto inicialmente, cujo objetivo é remover as interações dos parâmetros das malhas de controle com os parâmetros cinéticos a serem estimados, aproveitando medidas de planta não utilizadas pelo outro modelo. Junto com a parte de estimação de parâmetros é apresentada a metodologia da análise de sensibilidade para o planejamento de experimentos e estimação de parâmetros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O processo Spheripol é, atualmente, um dos mais utilizados na produção industrial de polipropileno e seus copolímeros. É composto por dois reatores tipo loop em série e, em alguns casos, um ou dois reatores tipo fase gás também em série. Neste trabalho é apresentado um modelo para os reatores loop do processo Spheripol. Os reatores loop são modelados como CSTR não ideais. O esquema cinético implementado é relativamente amplo, sendo capaz de englobar copolimerizações multisítio. Uma análise qualitativa do modelo é feita utilizando parâmetros cinéticos presentes na literatura e uma análise quantitativa do modelo é feita com base em dados reais de planta industrial. Ainda com base em dados de planta é feita uma estimação de parâmetros e a validação do modelo. Finalmente, o modelo com parâmetros estimados é aplicado num estudo de caso no qual também é criado um modelo de equilíbrio termodinâmico para a mistura reacional baseado na lei de Henry e na equação de estado de Peng-Robinson.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Uma atividade com a magnitude da avicultura, que usa equipamentos de última geração e serviços atualizados, é levada, na maioria dos casos, a tomar decisões que envolvem todos aspectos de produção, apoiada em critérios subjetivos. A presente tese objetivou estudar a utilização das redes neurais artificiais na estimação dos parâmetros de desempenho de matrizes pesadas, pertencentes a uma integração avícola sul-brasileira. Foram utilizados os registros de 11 lotes em recria, do período compreendido entre 09/11/97 a 10/01/99 e de 21 lotes em produção, do período compreendido entre 26/04/98 a 19/12/99, para a análise por redes neurais artificiais. Os dados utilizados corresponderam a 273 linhas de registros semanais, do período de recria e 689 linhas de registros semanais, do período de produção. Os modelos de redes neurais foram comparados e selecionados como melhores, baseados no coeficiente de determinação múltipla (R2), Quadrado Médio do Erro (QME), bem como pela análise de gráficos, plotando a predição da rede versus a predição menos o real (resíduo). Com esta tese foi possível explicar os parâmetros de desempenho de matrizes pesadas, através da utilização de redes neurais artificiais. A técnica permite a tomada de decisões por parte do corpo técnico, baseadas em critérios objetivos obtidos cientificamente. Além disso, este método permite simulações das conseqüências de tais decisões e fornece a percentagem de contribuição de cada variável no fenômeno em estudo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação apresenta um método para calibração automática de um par de câmeras que realiza um movimento desconhecido. O processo de calibração aqui descrito é baseado inteiramente na rigidez da cena observada e na invariabilidade dos parâmetros intrínsecos das câmeras durante o movimento. Não há a necessidade de nenhum artefato de calibração especial. Este trabalho mostra uma abordagem completa, desde o processo de casamento de pontos até a estimação dos parâmetros da câmera. Não é feita nenhuma suposição sobre o movimento das câmeras, tampouco sobre a disposição da cena 3D. Exemplos de aplicações deste método estão nos experimentos onde a calibração das câmeras precisa ser realizada remotamente, dificultando o posicionamento de artefatos de calibração na cena alvo, como é o caso para robôs de exploração interplanetária.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.