991 resultados para Confiabilidade em redes


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de Internet para a distribuição de fluxos de vídeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos de vídeo na Internet. A idéia básica da distribuição de vídeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços de vídeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição de vídeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo de vídeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade de vídeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe uma nova métrica denominada AP (Alternative Path), a ser utilizada para o cálculo de rotas em protocolos de roteamento em redes em malha sem fio. Esta métrica leva em consideração a interferência causada por nós vizinhos na escolha de uma rota para um destino. O desempenho da métrica AP é avaliado e comparado com o da métrica ETX (Expected Transmission Count) e com o da métrica número de saltos (Hop Count). As simulações realizadas mostram que a métrica AP pode propiciar desempenho superior à rede quando comparada com as outras duas métricas. A métrica AP apresenta melhor desempenho em cenários com maior diversidade de caminhos alternativos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem por objetivo propor algoritmos para conservação de energia de uma rede de sensores sem fio (RSSF) aplicada ao monitoramento de um processo suave f(x , y, t), que depende das coordenadas x e y dos nós sensores, e do tempo t, de forma a aumentar a autonomia da rede. Os algoritmos rodam na camada de aplicação de cada nó, e visam a economia de energia dos nós através do gerenciamento da necessidade de transmissões. Após a primeira amostra transmitida, apenas amostras com uma variação percentual maior do que um dado limiar são transmitidas. Além disso, cada nó pode permanecer inativo (economizando energia) entre essas transmissões. Em RSSfs de salto único, são propostos dois algoritmos: um baseado na fonte, onde cada nó é responsável por todo o processamento e tomada de decisões, e outro baseado no sorvedouro, onde todo o processamento e a tomada de decisões são realizadas pelo sorvedouro. Além disso, uma extensão de algoritmo baseado na fonte é proposta, para RSSFs de múltiplos saltos. Através dos resultados obtidos, observa-se que os algoritmos conseguiram uma redução significativa da quantidade de transmissões, o que leva a um aumento do tempo de vida e o erro na reconstrução do processo é apresentada. Desta forma, pode-se conjugar a relação entre tempo de vida máximo e erro de reconstrução mínimo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto de Estações de Tratamento de Efluentes Industriais (ETEIs) deve objetivar um desempenho médio, o qual não pode ser ultrapassado certo número de vezes durante seu tempo operacional. Este trabalho propõe a aplicação da metodologia conhecida como Coeficiente de Confiabilidade (CDC) para quantificação da confiabilidade das etapas de tratamento físico (Separação Águaóleo SAO e flotação) e biológico (lodos ativados com aeração prolongada), considerando efluente oleoso proveniente de refino de petróleo. Tal metodologia, entretanto, não possibilita a identificação das prováveis causas do baixo desempenho na tratabilidade. Por isso também é proposta a aplicação da ferramenta de gestão riscos conhecida como FMECA (Failure Modes, Effects and Criticality Analysis), que permite a quantificação das observações qualitativas de campo, tornando os valores comparáveis para definir a hierarquização dos riscos e criticidade das etapas de tratamento estudadas. A etapa biológica para o parâmetro NH3 apresentou a maior confiabilidade, ainda que a análise de risco tenha apontado esta etapa como mais crítica. Ou seja, um sistema confiável não necessariamente apresenta menor criticidade, pois uma má gestão implicará em possíveis infrações às metas pré-fixadas ou à própria legislação ambiental.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O que fazem profissionais de educação numa produção televisiva? Nesta pesquisa, por meio de 'conversas' com praticantespensantes que atuam em produção de TV, e no uso de outros documentos (programas editados, argumentos, textos e roteiros), busco responder a essa pergunta e compreender as redes de conhecimentos e significações relativas aos espaçostempos de ação desses profissionais, entendidos como entre-lugares de educação e comunicação. A pesquisa, na perspectiva dos estudos com os cotidianos, se articula ao GRPESQ Currículo, redes educativas e imagens, do Laboratório Educação e Imagem/ProPEd/UERJ, e busca apoio em conversas/narrativas com/de professores que trabalharam/trabalham em televisão em especial, no programa Salto para o Futuro integrando a equipe de educação da TV Escola (MEC), ou atuando como consultores de séries temáticas. Sobre o assunto, também foram ouvidos responsáveis pela assessoria pedagógica dos canais Encuentro e Pakapaka, na Argentina, em doutorado-sanduíche, com o apoio da Capes. Como fundamentação teórica, além de pesquisas com os cotidianos, a partir de textos de Michel de Certeau, de Nilda Alves e de Inês Barbosa de Oliveira, dos quais emergem algumas das noções que permeiam essa investigação, ressalto a contribuição de autores da sociologia, como Pierre Bourdieu e Boaventura de Sousa Santos e, ainda, de represe ntantes dos chamados estudos culturais, entre eles Jesús Martín-Barbero, Nestor Canclini, Stuart Hall, Homi Bhabha entre outros. A questão do outro, da alteridade, que permeia a tese, em sua tessitura com narrativas e imagens, busca inspiração também nos escritos e em conversas com Carlos Skliar e nos textos de Jorge Larrosa. As conclusões possíveis destacam a importância das ações desses profissionais (professores) nesses espaçostempos televisivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde 2004, o CONAMA (Conselho Nacional de Meio Ambiente), através de sua Resolução n 344, vem exigindo que as análises físicas, químicas e biológicas em matrizes ambientais sejam realizadas em laboratórios ambientais que possuam sua competência técnica reconhecida formalmente através da acreditação concedida pelo Inmetro. Assim, algumas Unidades Federativas vem adotando o mesmo critério para cadastramento de laboratórios em seus bancos de dados. Com isso, houve um crescimento no número de acreditações: em 2002 haviam 12 laboratórios acreditados e em 2012 foram concedidas 198 acreditações a laboratórios ambientais. A adoção da ABNT NBR ISO/IEC 17025 como padrão de trabalho, além de atender as legislações vigentes, possui as seguintes vantagens: satisfação do cliente, credibilidade e melhoria contínua do laboratório, melhoria da capacitação profissional e a conquista de um mercado mais amplo. Buscando adequar-se a essa realidade, apesar de todas as dificuldades inerentes ao processo de implementação dos requisitos da ABNT NBR ISO/IEC 17025 em laboratórios universitários e de pesquisa, o Laboratório de Engenharia Sanitária (LES/DESMA) priorizou a adequação da determinação da demanda química de oxigênio (DQO) aos requisitos técnicos da ABNT NBR ISO/IEC 17025:2005, por ser um parâmetro indicador global de matéria orgânica em águas residuárias e superficiais e ser amplamente utilizado no monitoramento de estações de tratamento de efluentes líquidos e pelo fato deste poder ser determinado por duas técnicas analíticas distintas: espectrofotometria e colorimetria. Em razão deste cenário, o objetivo deste trabalho foi avaliar o desempenho dos métodos 5220 B e 5220 D descritos pelo Standard Methods, através dos parâmetros de validação de métodos analíticos. Ambos os métodos mostraram-se adequados ao uso a que se destinam e o limite de quantificação determinado apresentou-se compatível com o praticado com os laboratórios acreditados. As incertezas foram calculadas de forma a quantificar a qualidade do resultado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentado um estudo para a determinação do tamanho ótimo da malha de elementos, utilizando redes neurais artificiais, para o cálculo da intensidade útil. A ideia principal é treinar as redes de modo a possibilitar a aprendizagem e o reconhecimento do melhor tamanho para diversas áreas superficiais em fontes sonoras com geometria plana. A vantagem de se utilizar redes neurais artificiais deve-se ao fato de apresentarem um único tamanho para a obtenção da intensidade útil, consequentemente, uma redução significativa de tempo computacional quando comparado com o tempo de cálculo de uma malha bem refinada. Ensaios numéricos com placas planas - geometria separável que permite uma solução analítica - são utilizados para se realizar comparações. É apresentado um estudo comparativo entre o tempo computacional gasto para a obtenção da intensidade útil e o mesmo com a malha otimizada via redes neurais artificiais. Também é apresentada uma comparação do nível de potência sonora mediante solução numérica, a fim de validar os resultados apresentados pelas redes neurais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pensar as redes de conhecimentos e significações sobre gênero e sexualidades tecidas a partir de apropriações do cinema em espaçostempos de formação de professores é a proposta central desse projeto de dissertação, que foi desenvolvido durante os semestres letivos 2012.2 e 2013.1, tendo como campo de estudo uma turma do curso de Pedagogia da Universidade do Estado do Rio de Janeiro (UERJ), na disciplina Pesquisa e Prática Pedagógica. A proposta foi investigar fragmentos da tessitura das redes de saberesfazeres sobre gênero e sexualidades criadas com diferentes usos de narrativas cinematográficas em múltiplos contextos cotidianos dentrofora da UERJ, porém, buscando percebê-las e problematizá-las no momento em que estão sendo entrelaçadas e transformadas nos cotidianos do curso de formação. Para vivenciar fragmentos dessas redes, nos espaçostempos dessa pesquisa-intervenção, criei, num primeiro momento, rodas de conversas para trazer à tona memórias fílmicas. Nessa atividade, pude experimentar o modo como determinados significados são sentidos, pensados e negociados pelas professoras em formação. As análises que desenvolvi buscaram compreender como essas professoras se apropriavam dos saberes e significações contidos nesses filmes que elas próprias apontaram como tendo marcado suas vidas, e como tais saberes se expressavam em suas reflexões sobre as práticas pedagógicas e sobre as sensibilidades e subjetividades docentes. Outros procedimentos metodológicos foram, ainda, desenvolvidos no sentido de produzir e questionar os conhecimentos tecidos em meio a essas redes, possibilitando novas e diferentes conexões. Entre eles, estão leituras de textos, exibição de filmes, realização de debates e a desnaturalização dos modos hegemônicos de fazer ciência e dos conteúdos escolares, com o propósito de incentivar novas conversas e, com isso, o engendramento de outras significações possíveis sobre gênero e sexualidades. Essa pesquisa se insere na tendência de pesquisas em educação, conhecida como nos/dos/com os cotidianos e, assim, entende que as professoras em formação pesquisadas são, acima de tudo, sujeitos e coautoras do estudo desenvolvido. Com este trabalho, afirmo que a formação de professores nunca estará concluída, mas em constante processo de produção. Apesar disso, aposto na germinação de algumas sementes que foram lançadas em uma busca constante, tanto da minha parte, quanto das alunas, na perspectiva de serem instituídas relações mais justas, combatentes dos processos de violência e exclusões motivados por diferenças de gênero e sexualidades. Por fim, defendo que diferentes usos de audiovisuais, especialmente nas práticas educativas, podem produzir maneiras para se inventar sensibilidades e estéticas-éticas de existência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A noção de rede social e os métodos em análise em redes sociais (ARS) tem atraído considerável interesse e curiosidade para a comunidade científica nestas últimas décadas, assim como a crescente fascinação pública sobre as relações mais complexas da sociedade moderna. A ARS está baseada na importância de relações entre a interação de unidades. Numa análise de rede social a observação dos atributos sociais de um ator pode ser entendida como padrão ou como uma estrutura de relação entre as unidades. Desta forma, quando empregados a uma perspectiva de rede, é possível estudar os padrões de estruturas relacionais diretamente, sem referência a atributos dos indivíduos envolvidos. Na análise convencional de redes sociais a distância geográfica (ou geoespacial) não tem efeito mapeado na rede. Quando utilizada, esta informação normalmente adquire caráter de um atributo complementar associado individualmente a cada ator (ou aglomerados de atores) da própria rede. O objetivo deste trabalho é demonstrar, numa escala local (de maneira mais granular) como o posicionamento geoespacial dos atores, considerado como elementos da rede, pode desvendar aspectos significativos do comportamento destes que não seriam revelados em análises convencionais. No estudo de caso utilizou-se ainda conceitos de outras disciplinas, como a Matemática e a Física, para verificar a capilaridade do fluxo da informação da rede em três perspectivas distintas: a social, a espacial e a socioespacial. O trabalho descreve o campo emergente de pesquisa em ARS, abordando também questões fundamentais sobre como estas diferentes perspectivas podem trazer resultados mais assertivos para orientar uma tomada de decisão no mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Redes de trocadores de calor são bastante utilizadas na indústria química para promover a integração energética do processo, recuperando calor de correntes quentes para aquecer correntes frias. Estas redes estão sujeitas à deposição, o que causa um aumento na resistência à transferência de calor, prejudicando-a. Uma das principais formas de diminuir o prejuízo causado por este fenômeno é a realização periódica de limpezas nos trocadores de calor. O presente trabalho tem como objetivo desenvolver um novo método para encontrar a programação ótima das limpezas em uma rede de trocadores de calor. O método desenvolvido utiliza o conceito de horizonte deslizante associado a um problema de programação linear inteira mista (MILP). Este problema MILP é capaz de definir o conjunto ótimo de trocadores de calor a serem limpos em um determinado instante de tempo (primeiro instante do horizonte deslizante), levando em conta sua influência nos instantes futuros (restante do horizonte deslizante). O problema MILP utiliza restrições referentes aos balanços de energia, equações de trocadores de calor e número máximo de limpezas simultâneas, com o objetivo de minimizar o consumo de energia da planta. A programação ótima das limpezas é composta pela combinação dos resultados obtidos em cada um dos instantes de tempo.O desempenho desta abordagem foi analisado através de sua aplicação em diversos exemplos típicos apresentados na literatura, inclusive um exemplo de grande porte de uma refinaria brasileira. Os resultados mostraram que a abordagem aplicada foi capaz de prover ganhos semelhantes e, algumas vezes, superiores aos da literatura, indicando que o método desenvolvido é capaz de fornecer bons resultados com um baixo esforço computacional