888 resultados para Complexidade computacional


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de 2002 o Estado assume o esforço de normatizar a atenção às urgências com edição de Portarias e documentos. O SAMU foi o primeiro componente da política implantado. Ele opera com ambulâncias com ou sem médico e com recursos tecnológicos diversos. Este estudo teve como objetivo analisar o potencial de prática de integralidade no SAMU. Para tal, foram realizadas três etapas de trabalho. Analisou-se a política de urgência a partir dos documentos e Portarias que a compõem. No trabalho de campo foram entrevistados seis gestores dos três níveis de governo e avaliadas as práticas de regulação nos SAMU do Estado do Rio de Janeiro. A metodologia utilizou o referencial da análise da conduta estratégica da Teoria da Estruturação de Giddens (1984) relacionando as capacidades cognitivas dos agentes e suas estratégias de ação, com as dimensões estruturais. Para o campo, além da teoria de Giddens, busquei no referencial da avaliação, indicadores (incluindo os da política), dialogando com a análise d situação do serviço. A Política de Urgência tece como marcos os financiamento federal, a regionalização, a capacitação dos profissionais, a função do SAMU de observatório da rede; e a gestão por comitês de urgência. A integralidade é proposta como valor, na indicação de utilizar o conceito ampliado de urgência, através da regionalização e da comunicação entre os serviços. A capacitação não foi instituída no estado e os vínculos empregatícios eram precários. Foi constatada a inoperância do Comitê Gestor Nacional de Urgências e a ausência do Comitê Estadual. Não há assistência integrada tendo entre as causas a insuficiência estrutural da rede, representada pela ausência da atenção básica e pela precariedade nos hospitais de referência. Não há produção e utilização de informação e o SAMU não cumpre a função de observatório de saúde. Os três SAMUs têm estruturas diferenciadas. Foram analisados 206 atendimentos e sua categirazação destacou: o SAMU bem sucedido, com práticas de integralidade no seu componente individual e de acesso aos serviços; sua função de observatório de rede, que refletiu o vazio assistencial do PSF e média complexidade e a restrição do acesso hospitalar; a insuficiência de recursos, com uso inadequado de ambulâncias; e demandas não reconhecidas, onde casos de urgência não reconhecida foram recusados. Destaca-se a prevalência da urgência clínica. Conclusão: a legitimação da regulação esteve presente na atitude dos entrevistados e de alguns profissionais nos casos do SAMU bem sucedido. A densidade das propostas documentais foi a vertente facilitadora do recurso estrutural. A mobilização de recursos autoritativos e alocativos mostrou fragilidades. Não houve mudança significativa nas práticas tipicamente excludentes do SUS, mas acreditamos no efeito cumulativo dos pequenos desvios que têm na ética e na solidariedade a base da aplicação do conhecimento técnico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo busca a abordagem de Tempo, Vida, Poesia, obra pouco estudada de Carlos Drummond de Andrade, publicada em 1986, produto final de uma série de oito entrevistas radiofônicas concedidas à amiga e jornalista Lya Cavalcanti, veiculadas, todos os domingos, pela PRA-2, Rádio Ministério da Educação e Cultura, na década de 1950. Objetiva-se no contexto de Tempo, Vida, Poesia, apreciar o trabalho literário da narrativa enquanto media fundamental da recordação que se projeta sobre a memória dos vestígios autobiográficos do autor. Neste sentido, a performance singular do prosador em foco permite identificar o percurso de uma vida literária, principalmente na empatia que estabelece com o receptor e a matéria da recordação e memória constituídas em imagens, que figuram sua própria complexidade subjetiva enquanto personagem. A riqueza poética do artifício de escrita encena a oralidade de uma experiência singular do narrador, possibilitando uma compreensão ampliada do fazer literário em foco

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação de danos estruturais é uma questão de fundamental importância na engenharia, visto que uma estrutura está sujeita a processos de deterioração e a ocorrência de danos durante a sua vida útil. A presença de danos compromete o desempenho e a integridade estrutural, podendo colocar vidas humanas em risco e resultam em perdas econômicas consideráveis. Técnicas de identificação de danos estruturais e monitoramento de estruturas fundamentadas no ajuste de um Modelo de Elementos Finitos (MEF) são constantes na literatura especializada. No entanto, a obtenção de um problema geralmente mal posto e o elevado custo computacional, inerente a essas técnicas, limitam ou até mesmo inviabilizam a sua aplicabilidade em estruturas que demandam um modelo de ordem elevada. Para contornar essas dificuldades, na formulação do problema de identificação de danos, pode-se utilizar o Modelo de Superfície de Reposta (MSR) em substituição a um MEF da estrutura. No presente trabalho, a identificação de danos estruturais considera o ajuste de um MSR da estrutura, objetivando-se a minimização de uma função de erro definida a partir das frequências naturais experimentais e das correspondentes frequências previstas pelo MSR. Estuda-se o problema de identificação de danos estruturais em uma viga de Euler-Bernoulli simplesmente apoiada, considerando as frequências naturais na formulação do problema inverso. O comportamento de uma viga de Euler-Bernoulli simplesmente apoiada na presença de danos é analisado, com intuito de se verificar as regiões onde a identificação dos mesmos pode apresentar maior dificuldade. No processo de identificação de danos, do presente trabalho, são avaliados os tipos de superfícies de resposta, após uma escolha apropriada do tipo de superfície de resposta a ser utilizado, determina-se a superfície de resposta considerando os dados experimentais selecionados a partir do projeto ótimo de experimentos. A utilização do método Evolução Diferencial (ED) no problema inverso de identificação de danos é considerado inerente aos resultados numéricos obtidos, a estratégia adotada mostrou-se capaz de localizar e quantificar os danos com elevada acurácia, mostrando a potencialidade do modelo de identificação de danos proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partindo da constatação da emergência de uma crise ambiental planetária e das várias concepções de Educação Ambiental que têm emergido como tentativas de dialogar com tal crise, a presente tese consiste na postulação e aprofundamento de quatro enunciados expressões de problemáticas teórico-práticas,delineadas na experiência pessoal e profissional interdisciplinar da autora -, aqui apresentados na forma de indagações paradigmáticas, epistemológicas, teórico-filosóficas e político-pedagógicas. O objetivo da presente pesquisa é contribuir com o campo dos processos de educação ambiental comprometidos com os modos de singularização emancipatórios, através de proposições reflexivas que possam evidenciar outras bases epistemológicas, filosóficas e conceituais à Educação. O Enunciado I, tendo como referências, sobretudo, a lógica rizomática, de Deleuze e Guattari, a ecologia dos saberes e as epistemologias do Sul, de Santos, e o conceito de complexidade, de Morin, postula a necessidade de emergência de uma Epistemologia dos Nexos, como conjunto de epistemologias, que nos possibilite restaurar a capacidade perceptiva de leitura do mundo em sua inteligibilidade e sensibilidade relacional, complexa, de conexões com nexos, a partir da problematização de uma herança epistemológica hegemônica que, contra a diversidade epistemológica do mundo, foi tecida com os fios da trama colonialista e ocidental cristã. O Enunciado II postula uma Educação Ambiental comprometida com a diversidade de modos e formas de conhecer, de se envolver e dialogar com a realidade e a vida, para além da racionalidade moderna e o conhecimento científico, tendo como referências, sobretudo, Freire, Santos, Maturana e Leloup. O Enunciado III pretende trazer à reflexão, sobretudo com Guattari, Rolnik e Godoy, a importância dos processos subjetivos como matérias-primas e instâncias de modelização na consolidação dos modelos econômicos, que historicamente tem se mantido invisibilizados dentro dos ideários políticos e educacionais, a serviço de uma ideologia dominante. Para tanto trabalha os conceitos de subjetivação, singularização, micropolítica e perspectivas minoritárias. Finalmente, o Enunciado IV, tomando algumas noções da filosofia a saber, o daimon grego, trazido por Boff, como dimensão interior humana; o compromisso quântico em Zohar, que postula um novo modelo relacional; a noção de afetos na Ética de Espinosa, como encontros que possibilitam a expansão ou diminuição de uma potência de agir; a noção de afirmação da vida, em Nietzsche, enquanto alegria e abundância, como uma estética da existência; e a noção de cuidado de si, de Foucault, como uma prática de autonomia do ser postula a proposição de uma Ética Ambiental, como Estética, comprometida com um fazer artístico de ser humano e de seus modos de existência. Tais enunciados, sistematizados através de uma metodologia qualitativa e cartográfica, serão colocados em diálogo, na forma de um Estudo de Caso, com um projeto social que trabalha com jovens, denominado Projeto Florescer: Arte-educação, Cidadania e Ecologia para Jovens, evidenciando ao campo dos processos de educação ambiental uma diversidade de modos educativos - poéticos, políticos, éticos, estéticos e místicos, capazes de tocar o mundo e o ser humano naquilo que eles têm de mais inédito, inusitado e especial

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diante da recorrência da criação de personagens-escritores nas obras brasileiras de ficção publicadas a partir dos anos 1990, foi escolhida a produção de Daniel Galera como estudo de caso. O personagem-escritor foi observado como estratégia para discutir questões relativas à cena literária contemporânea. Foi delimitado como corpus dessa pesquisa o blog criado durante a estada de Daniel Galera em Buenos Aires, ao participar do projeto Amores Expressos, e o romance Cordilheira (2008), escrito como fruto dessa experiência. Tendo em vista a trajetória de sua carreira em constante relação com a internet, foi analisada a construção do escritor-personagem no blog hospedado no site do projeto, em contraponto à figura do personagem-escritor no romance. Para tanto, foram utilizados textos sobre a autoficção, a performance e a autoria. Na comparação dos textos de ambos os suportes, foram evidenciadas semelhanças e diferenças nas problematizações a respeito da formação do autor. Foi investigada a inserção de trechos do blog no romance como estratégia que oferece complexidade nos espelhamentos das imagens e enriquece os efeitos de leitura do romance

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conhecimento do tema da interação solo-estrutura permite que as edificações sejam projetadas de maneira mais realista com o comportamento físico. Há décadas atrás seria inviável um dimensionamento considerando a deformabilidade do solo de fundação, e as estruturas eram dimensionadas adotando-se as fundações como indeslocáveis, sob uma base rígida. Essa consideração conduz a respostas estruturais inadequadas, por vezes comprometendo a segurança e a estabilidade do conjunto estrutural. Atualmente, o avanço tecnológico permite a obtenção de resultados de milhões de cálculos matemáticos em questões de segundos, podendo-se obter soluções mais arrojadas e dinâmicas, facilitando o dimensionamento estrutural de forma a atender ao novo padrão de construção e arquitetura. A relevância de tal assunto motivou a análise numérica de um edifício de 4 pavimentos de estrutura mista (aço-concreto), considerando o efeito da interação solo-estrutura. As análises foram conduzidas com o programa ANSYS, de elementos finitos, substituindo-se os apoios indeslocáveis por molas discretas, lineares e elásticas, com rigidez equivalente ao solo, conforme hipótese de Winkler. Os parâmetros dos solos de fundação foram adquiridos a partir de correlações empíricas existentes na literatura e da utilização do programa computacional PLAXIS para a determinação das constantes elásticas das molas. Neste trabalho, foram comparados os resultados de reações verticais, esforços normais, momentos fletores e deslocamentos da estrutura obtidos pelo modelo clássico de projeto, que considera apoios indeslocáveis, e pelo modelo de Winkler, que considera a interação solo-estrutura. As análises foram executadas para seis diferentes tipos de solos argilosos, siltosos e arenosos. Os resultados obtidos mostraram claramente a redistribuição dos momentos fletores, esforços normais e reações verticais nos pilares com diferenças significativas para os pilares de canto e periféricos. Observou-se uma tendência de alívio dos esforços nos pilares mais solicitados, adotando a estrutura assentada em uma base rígida. As análises ressaltaram a relevância da interação solo-estrutura, com efeitos provenientes do rearranjo do solo de fundação nos elementos estruturais das edificações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta Dissertação propõe-se a aplicação de algoritmos genéticos para a síntese de filtros para modular sinais de controladores a estrutura variável e modo deslizante. A modulação do sinal de controle reduz a amplitude do sinal de saída e, consequentemente, pode reduzir o consumo de energia para realizar o controle e o chattering. Esses filtros também são aplicados em sistemas que possuem incertezas paramétricas nos quais nem todas as variáveis de estado são medidas. Nesses sistemas, as incertezas nos parâmetros podem impedir que seus estados sejam estimados com precisão por observadores. A síntese desses filtros necessita da obtenção da envoltória, que é o valor máximo da norma de cada resposta impulsiva admissível no sistema. Após este passo, é sintetizado um filtro que seja um majorante para a envoltória. Neste estudo, três métodos de busca da envoltória por algoritmos genéticos foram criados. Um dos métodos é o preferido, pois apresentou os melhores resultados e o menor tempo computacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado o desenvolvimento de um sistema de posicionamento dinâmico para uma pequena embarcação baseado em controle a estrutura variável com realimentação por visão computacional. Foram investigadas, na literatura, diversas técnicas desenvolvidas e escolheu-se o controle a estrutura variável devido, principalmente, ao modo de acionamento dos propulsores presentes no barco utilizado para os experimentos. Somando-se a isto, foi considerada importante a robustez que a técnica de controle escolhida apresenta, pois o modelo utilizado conta com incerteza em sua dinâmica. É apresentado ainda o projeto da superfície de deslizamento para realizar o controle a estrutura variável. Como instrumento de medição optou-se por utilizar técnicas de visão computacional em imagens capturadas a partir de uma webcam. A escolha por este tipo de sistema deve-se a alta precisão das medições aliada ao seu baixo custo. São apresentadas simulações e experimentos com controle a estrutura variável em tempo discreto utilizando a integral do erro da posição visando eliminar o erro em regime. Para realizar o controle que demanda o estado completo, são comparados quatro estimadores de estado realizados em tempo discreto: derivador aproximado; observador assintótico com uma frequência de amostragem igual a da câmera; observador assintótico com uma frequência de amostragem maior que a da câmera; e filtro de Kalman.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo principal implementar um algoritmo empírico para o monitoramento do processo de eutrofização da Baía de Guanabara (BG), Rio de Janeiro (RJ), utilizando dados de clorofila-a coletados in situ e imagens de satélite coletadas pelo sensor MERIS, a bordo do satélite ENVISAT, da Agência Espacial Européia (ESA). Para a elaboração do algoritmo foi utilizada uma série histórica de clorofila-a (Out/2002 a Jan/2012) fornecida pelo Laboratório de Biologia Marinha da UFRJ, que, acoplada aos dados radiométricos coletados pelo sensor MERIS em datas concomitantes com as coletas in situ de clorofila-a, permitiu a determinação das curvas de regressão que deram origem aos algorítmos. Diversas combinações de bandas foram utilizadas, com ênfase nos comprimentos de onda do verde, vermelho e infra-vermelho próximo. O algoritmo escolhido (R = 0,66 e MRE = 77,5%) fez uso dos comprimentos de onda entre o verde e o vermelho (665, 680, 560 e 620 nm) e apresentou resultado satisfatório, apesar das limitações devido à complexidade da área de estudo e problemas no algoritmo de correção atmosférica . Algorítmos típicos de água do Caso I (OC3 e OC4) também foram testados, assim como os algoritmos FLH e MCI, aconselhados para águas com concentrações elevadas de Chl-a, todos com resultados insatisfatório. Como observado por estudos pretéritos, a Baia de Guanabara possui alta variabilidade espacial e temporal de concentrações de clorofila-a, com as maiores concentrações no período úmido (meses: 01, 02, 03, 10, 11 12) e nas porções marginais (~ 100 mg.m-3), particularmente na borda Oeste da baia, e menores concentrações no período seco e no canal principal de circulação (~ 20 mg.m-3). O presente trabalho é pioneiro na construção e aplicação de algoritmos bio-óptico para a região da BG utilizando imagens MERIS. Apesar dos bons resultados, o presente algorítmo não deve ser considerado definitivo, e recomenda-se para trabalhos futuros testar os diferentes modelos de correção atmosférico para as imagens MERIS.