36 resultados para Estimação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação, tem como propósito, estimar a elasticidade intertemporal para a oferta de trabalho masculina no Brasil. Também, verifica-se a presença de fatos estilizados relacionados ao ciclo de vida do indivíduo. Este trabalho fundamenta-se na teoria que tem como referência Heckman (1974 e 1976), e a idéia principal é supor que o indivíduo procura aumentar sua oferta de trabalho em períodos onde o salário real é alto. A partir de um modelo com dados de painel, formulado por MaCurdy (1981), procedemos a estimação. Para a verificação dos fatos estilizados foram feitos gráficos. No caso da estimação, houve um tratamento explícito para as questões da forma funcional, heterogeneidade não observada e da endogeneidade da variável salário. Os gráficos confirmam, em parte, a presença dos fatos estilizados, as variáveis salário por hora e rendimentos do trabalho têm uma relação côncava com a variável idade do indivíduo, no mercado de trabalho brasileiro. Contudo, o modelo econométrico estimado não confirma a efetividade da hipótese de elasticidade intertemporal, uma vez que, as estimativas geradas foram baixas e negativas, embora significativas .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Imagens georreferenciadas LANDSAT 5 TM da região da Mina Leão II, situada na Depressão Central do Estado do Rio Grande do Sul, foram processadas e classificadas digitalmente com objetivo de gerar o mapa de uso e cobertura do solo. Destas imagens, a drenagem foi extraída na forma vetorial, com o objetivo de determinar a faixa de proteção em torno dela. Dados topográficos plani-altimétricos analógicos foram tratados gerando o modelo digital do terreno e mapas de declividades. Foram definidos critérios para selecionar sítios adequados à colocação de rejeitos de carvão. Imagens de uso e cobertura do solo, declividades, rede de drenagem, litologias, estruturas geológicas, e distância a partir da boca da mina foram transformadas em sete fatores. Três fatores são absolutos ou restrições: zona de proteção da drenagem, zona de restrição em torno dos falhamentos e declividades superiores a 8%. Os restantes, são fatores relativos: uso e cobertura do solo reclassificado, declividade inferior a 8%, substrato litológico e distância a partir da mina. Aos quatro fatores relativos foi atribuída uma ponderação pareada. Através das ferramentas computacionais de apoio à decisão, em um Sistema de Informação Geográfica, os oito diferentes fatores foram cruzados, resultando um mapa temático que localiza e classifica sítios para a locação de rejeitos de carvão. As classes identificadas foram: área de restrição, péssima, regular, boa e ótima. O mapa de uso e cobertura do solo foi reclassificado em função de ser elaborada uma imagem de superfície de atrito, a partir do local da boca da mina, com a finalidade de se projetar vias de menor custo, desde a mina até a BR290 e a um porto situado no rio Jacuí. Dados sobre a espessura da camada de carvão inferior, "I", de uma campanha de sondagem de 182 furos, foram tratados por metodologia de geoestatística. Estudos de estatística descritiva, análise de continuidade espacial e estimação foram realizados, culminando com a cubagem da camada na área de estudo. Foi escolhido o processo de interpolação através da krigagem ordinária. A tonelagem da camada de carvão "I" foi estimada na ordem de 274.917.234 a 288.046.829 t. com nível de confiança de 95%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sistema bancário consiste em um setor da economia muito regulado, e uma das medidas impostas pelas autoridades supervisoras como forma de controle é exigência mínima de capital. Uma das formas encontradas para oferecer maior proteção aos clientes e ao mercado financeiro como um todo é a imposição aos bancos em manterem níveis mínimos de capital vinculados aos riscos a que estão expostos, medida que serve como recurso para desestimular a exposição a riscos não usuais. O capital bancário, portanto, constitui-se em instrumento de proteção contra o risco de quebra de uma instituição, e, desde a adesão ao Acordo Internacional da Basiléia, com vigência a partir de 1995, os bancos brasileiros têm de manter patrimônio líquido compatível com o grau de risco da estrutura de seus ativos. O presente trabalho explora a existência e o grau de relação entre exigência mínima de capital ponderado pela exposição de risco dos ativos e a rentabilidade dos bancos brasileiros, a fim de contribuir para uma análise da situação atual das instituições em relação às normas vigentes sobre requerimento de capital. Trata-se de pesquisa empírica, a qual procura levantar indicações exploratórias, evidenciadas por graus de correlações, mensurados através de estimação com dados em painel. A literatura internacional que versa sobre os impactos da existência de regulação de capital nos bancos demonstra-se divergente e, em alguns casos, não–conclusiva. Os resultados encontrados neste trabalho, com base em amostra composta por bancos brasileiros, não evidenciam relações significativas entre indicador de rentabilidade e indicador de capital ponderado pelos riscos, conhecido no Brasil como Índice de Basiléia. Algumas considerações são sugeridas para justificarem os resultados alcançados, tais como a preferência das instituições por aplicações em ativos de menor risco, como títulos públicos, a arbitragem de capital, proporcionada, principalmente, pelo grau de risco imposto às operações ativas, e a facilidade de enquadrarem-se aos limites mínimos de capital adotados no Brasil, evidenciada pelas altas margens de folga observadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A adsorção em leito fixo de carvão ativado granular é uma das mais importantes alternativas para a remoção de compostos orgânicos voláteis em efluentes aquosos, em concentrações baixas. O objetivo deste trabalho é colocar em funcionamento uma unidade piloto de adsorção e desenvolver uma metodologia para avaliar o comportamento de adsorventes nesta planta como a usada no projeto de unidades de adsorção de leito fixo. Esta planta piloto possui uma coluna de 20 mm de diâmetro interno, encamisada. Ela é equipada com espectrofotômetro UV on-line, que permite a medida da concentração de componentes orgânicos voláteis na corrente de efluente. Também, possui módulos para a aquisição de dados de temperatura, vazão e pressão diferencial. Nessa planta, foram realizados experimentos, à temperatura ambiente, para aquisição de curvas de ruptura experimentais da adsorção de tolueno de uma corrente aquosa, em um leito fixo de carvão ativado. O leito era composto por um carvão ativado granular (8 x 12 mesh). Diferentes alturas de leito (5 e 10 cm) e vazões ( 0,8 e 1,6 L.h-1) foram testados, mantendo a concentração de tolueno na alimentação em aproximadamente 50 ppm. Concomitantemente, foram realizados testes para a caracterização do adsorvente, obtendo-se 15,4 % de conteúdo de umidade e 8,7 % de cinzas, massa específica bulk de 0,5 g.mL-1, massa específica real de 1,72 g.mL-1 e 681 m2.g-1 de área superficial A estimação da difusividade mássica e do coeficiente de transferência de massa referente à fase sólida foram obtidos através de dados de testes cinéticos, obtendo-se, respectivamente, os valores médios de 6,1 cm2.h-1 e 0,0162 cm.h-1. As alturas das zonas de transferência de massa obtidas para a vazão de 0,8 L.h-1 aumentaram com o aumento da altura do leito, indicando comportamento de padrões proporcionais. Além disso, analisaram-se dados preliminares de pressão diferencial no leito, que indicam que ela aumentou enquanto havia adsorção. A metodologia desenvolvida poderá ser aplicada para estudar a adsorção com outros pares adsorvente/adsorvato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta um método para calibração automática de um par de câmeras que realiza um movimento desconhecido. O processo de calibração aqui descrito é baseado inteiramente na rigidez da cena observada e na invariabilidade dos parâmetros intrínsecos das câmeras durante o movimento. Não há a necessidade de nenhum artefato de calibração especial. Este trabalho mostra uma abordagem completa, desde o processo de casamento de pontos até a estimação dos parâmetros da câmera. Não é feita nenhuma suposição sobre o movimento das câmeras, tampouco sobre a disposição da cena 3D. Exemplos de aplicações deste método estão nos experimentos onde a calibração das câmeras precisa ser realizada remotamente, dificultando o posicionamento de artefatos de calibração na cena alvo, como é o caso para robôs de exploração interplanetária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo propõe um método alternativo para a previsão de demanda de energia elétrica, através do desenvolvimento de um modelo de estimação baseado em redes neurais artificiais. Tal método ainda é pouco usado na estimativa de demanda de energia elétrica, mas tem se mostrado promissor na resolução de problemas que envolvem sistemas de potência. Aqui são destacados os principais fatores que devem pautar a modelagem de um sistema baseada em redes neurais artificiais, que são: seleção das variáveis de entrada; quantidade de variáveis; arquitetura da rede; treinamento; previsão da saída. O modelo ora apresentado foi desenvolvido a partir de uma amostra de 125 municípios do Estado do Rio Grande do Sul (Brasil), nos anos de 1999 a 2002. Como variáveis de entrada, foram selecionados a temperatura ambiente (média e desvio-padrão anual), a umidade relativa do ar (média e desvio-padrão anual), o PIB anual e a população anual de cada município incluído na amostra. Para validar a proposta apresentada, são mostrados resultados baseados nas simulações com o modelo proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos da presente tese visam determinar os custos médico-hospitalares e aqueles referentes à perda de uma vida ou valor da vida estatística (VVE) para os acidentados no trânsito. Para o primeiro objetivo, a pesquisa ex-post facto foi realizada no arquivo médico do Hospital Cristo Redentor (SAME-HCR), situado na cidade de Porto Alegre e especializado no atendimento a pacientes traumatizados. A análise dos prontuários para verificar a gravidade das lesões, assim como o custo resultante de cada acidentado, envolveu a identificação daqueles tratados através de convênios e particulares, bem como através do Sistema Unificado de Saúde (SUS). Foram consultados 186 prontuários e gerados dois modelos, sendo um linear múltiplo e outro multiplicativo. O modelo multiplicativo resultou mais robusto. Os custos médios de lesões severas estão em torno de US$ 4.000 e US$ 7.000, respectivamente, para pacientes atendidos através do SUS ou por convênio ou particular. No segundo objetivo, foram utilizadas duas metodologias para determinação do VVE. A primeira metodologia utilizou as técnicas de Preferência Declarada (PD) através da escolha de alternativas com multi-atributos. Na segunda, foi empregada a análise contingente que utiliza um único atributo, denominada referendum (AR). A pesquisa foi realizada de forma presencial junto a 419 motoristas amadores dos quais 41% apresentaram comportamento lexicográfico. Com a metodologia PD, a faixa de variação do VVE em um acidente com morte foi de US$ 119 a 333 mil, aproximadamente, considerando os modelos válidos O valor da hora, utilizado para controle do experimento, ficou contido na faixa entre US$ 1,33 a 2,56. A metodologia AR, utilizada na forma exploratória, está baseada na função utilidade que possibilita disposição de pagar individual negativa. Como decorrência, o valor médio e mediano da disposição de pagar dos indivíduos (DDP) resultou positivo ou negativo dependendo dos coeficientes obtidos na estimação. Esse fato determinou o emprego de expressões para o cálculo da média e mediana, considerando também o truncamento da função logística somente para valores positivos. Os valores obtidos para o VVE apresentaram grande flutuação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.