5 resultados para Variable precision logic

em Universidade Federal do Pará


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho são apresentados os resultados de uma técnica que permitiu implementar a estratégia de controle de temperatura do aquecedor de óleo térmico da fabrica de Anodo Verde da Albrás Alumínio Brasileiro S/A. No projeto utilizou-se um sistema hierarquizado baseado em conjuntos e lógica Fuzzy. O uso dessa metodologia fez com que o sistema fosse capaz de reagir adequadamente diante das variações do ponto de operação do aquecedor, pois o controle Fuzzy exibe algumas características do aprendizado humano, sendo considerado um exemplo de inteligência artificial. O aquecedor de óleo térmico é fundamental no processo de fabricação de blocos inódicos, utilizados como pólo positivo no processo de eletrólise na obtenção do alumínio primário. O sistema de óleo térmico aquece os misturadores e pré-aquecedor de coque, mantendo a temperatura desses equipamentos dentro dos limites estabelecidos pela engenharia de processo. A variável temperatura impacta diretamente na energia de mistura da pasta e na qualidade do produto final, que é o bloco anódico. A metodologia apresentada permitiu alcançar um controle de temperatura que atendeu satisfatoriamente os parâmetros de processo. O programa foi desenvolvido em linguagem ladder é executado em controladores lógicos programáveis (CLP’S) da Rockwell Automation. O controle já está em plena operação nas fábricas de anodos e os resultados obtidos demonstram a eficácia e viabilidade do sistema, que futuramente estará sendo implementado no controle de outros equipamentos da Albrás.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo apresenta uma aplicação do método para determinação espectrofotométrica simultânea dos íons divalentes de cobre, manganês e zinco à análise de medicamento polivitamínico/polimineral. O método usa 4-(2-piridilazo) resorcinol (PAR), calibração multivariada e técnicas de seleção de variáveis e foi otimizado o empregando-se o algoritmo das projeções sucessivas (APS) e o algoritmo genético (AG), para escolha dos comprimentos de onda mais informativos para a análise. Com essas técnicas, foi possível construir modelos de calibração por regressão linear múltipla (RLM-APS e RLM-AG). Os resultados obtidos foram comparados com modelos de regressão em componentes principais (PCR) e nos mínimos quadrados parciais (PLS). Demonstra-se a partir do erro médio quadrático de previsão (RMSEP) que os modelos apresentam desempenhos semelhantes ao prever as concentrações dos três analitos no medicamento. Todavia os modelos RLM são mais simples pois requerem um número muito menor de comprimentos de onda e são mais fáceis de interpretar que os baseados em variáveis latentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em um treino discriminativo, há diversas variáveis que podem afetar a precisão da aquisição do repertório. Uma variável pouco analisada é o número de escolhas apresentado nas tentativas discretas de treino, buscando verificar em que situações o controle discriminativo pode ser mais facilmente estabelecido. Este trabalho tem como objetivo geral descrever os efeitos da manipulação do número de escolhas sobre o desempenho em tarefas de discriminação simples em macacos-prego (Cebus cf. apella). No Experimento I, os sujeitos foram submetidos a um treino discriminativo com três tipos diferentes de tentativas (2, 4 e 9 escolhas). Um teste de controle de estímulos avaliou se o repertório aprendido podia ser mantido quando os estímulos utilizados nos três tipos de tentativa eram apresentados na forma de duas escolhas. No Experimento II, buscou-se adicionalmente avaliar se as respostas corretas nos treinos prévios de discriminação ocorriam em função de escolha por seleção do S+, por rejeição do S-, ou por controle misto (seleção e rejeição). Esta avaliação foi realizada através do procedimento de máscara. Os resultados do Experimento I sugerem que a exposição a um número maior de escolhas é uma estratégia eficiente para estabelecer o responder discriminado, pois o desempenho permanece mesmo quando o número de escolhas é posteriormente reduzido para dois. Os resultados obtidos no Experimento II mostram dados diferentes para os dois sujeitos. M30 apresentou controle por rejeição e preferência pela máscara e M31 apresentou controle misto no responder. O presente estudo mostra um caminho para aprofundar a análise do controle de estímulos nos estudos específicos sobre a manipulação do número de escolhas e indica que essa variável pode ser um meio eficaz de reduzir a dificuldade de aquisição de discriminações em contexto aplicado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A teoria de Garret Hardin intitulada “A tragédia dos comuns” apresenta a privatização e o controle governamental como saída para evitar o esgotamento dos recursos naturais. Entretanto, outros autores demonstraram que os usuários dos recursos podem apresentar eficientes formas de manejo, aliando o uso pelo homem à conservação da natureza. Esta tese analisa o uso de recursos comuns em Unidades de Conservação e Assentamentos Rurais de Uso Sustentável, localizadas no interflúvio Purus-Madeira, região Sul do Estado do Amazonas. A pergunta que norteou a hipótese da pesquisa foi: Diante das especificidades amazônicas e das regras impostas pelas políticas ambientais e agrárias na região, quais condições apresentam-se como necessárias e suficientes ao bom desempenho no uso de recursos comuns? A análise foi realizada por meio da combinação de três métodos: o método comparativo Qualitative Comparative Analysis (QCA), o método de análise institucional Institutional Analysis and Development (IAD) Framework e a lógica fuzzy. Operacionalmente, foram consideradas como variáveis independentes (X) os aspectos socioeconômicos, produtivos, ambientais e institucionais, partindo-se do pressuposto de que os programas governamentais destinados às Unidades devem apresentar melhorias nestes indicadores, refletindo por sua vez no bom desempenho no uso de recursos comuns (variável dependente Y) a partir deste desenho institucional. Os resultados confirmaram as hipóteses levantadas, afirmando-se que o bom desempenho no uso de recursos comuns, preconizado pelos critérios da sustentabilidade, somente pode ser alcançado mediante a combinação de um desempenho também satisfatório nas variáveis socioeconômicas, produtivas, institucionais e ambientais, apresentando-se estas variáveis como individualmente necessárias e conjuntamente suficientes para ocorrência deste fenômeno.