444 resultados para Engenharia simultânea


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é contribuir com o desenvolvimento de uma técnica baseada em sistemas inteligentes que possibilite a localização exata ou aproximada do ponto de origem de uma Variação de Tensão de Curta Duração (VTCD) (gerada por uma falta) em um sistema de distribuição de energia elétrica. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar as faltas. Uma vez que a falta é detectada, os sinais de tensão obtidos durante a falta são decompostos em componentes simétricas instantâneas por meio do método proposto. Em seguida, as energias das componentes simétricas são calculadas e utilizadas para estimar a localização da falta. Nesta pesquisa, são avaliadas duas estruturas baseadas em Redes Neurais Artificiais (RNAs). A primeira é projetada para classificar a localização da falta em um dos pontos possíveis e a segunda é projetada para estimar a distância da falta ao alimentador. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas equilibradas. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões no nó inicial do alimentador e também em pontos esparsos ao longo da rede de distribuição. O banco de dados empregado foi obtido através de simulações de um modelo de alimentador radial usando o programa PSCAD/EMTDC. Testes de sensibilidade empregando validação-cruzada são realizados em ambas as arquiteturas de redes neurais com o intuito de verificar a confiabilidade dos resultados obtidos. Adicionalmente foram realizados testes com faltas não inicialmente contidas no banco de dados a fim de se verificar a capacidade de generalização das redes. Os desempenhos de ambas as arquiteturas de redes neurais foram satisfatórios e demonstram a viabilidade das técnicas propostas para realizar a localização de faltas em redes de distribuição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho contemplamos o emprego de detectores de voz como uma etapa de pré- processamento de uma técnica de separação cega de sinais implementada no domínio do tempo, que emprega estatísticas de segunda ordem para a separação de misturas convolutivas e determinadas. Seu algoritmo foi adaptado para realizar a separação tanto em banda cheia quanto em sub-bandas, considerando a presença e a ausência de instantes de silêncio em misturas de sinais de voz. A ideia principal consiste em detectar trechos das misturas que contenham atividade de voz, evitando que o algoritmo de separação seja acionado na ausência de voz, promovendo ganho de desempenho e redução do custo computacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução nos sistemas digitais de comunicação está intrinsicamente relacionada ao desenvolvimento da tecnologia de fibras ópticas. Desde a sua criação, na década de 60, inúmeras pesquisas vem sendo realizadas com o intuito de aumentar a capacidade de informação transmitida, por meio da redução da atenuação, controle da dispersão cromática e eliminação das não-linearidades. Neste contexto, as Fibras de Bragg surgem como uma estrutura de grande potencialidade para se minimizar tais inconvenientes. As fibras de Bragg possuem um mecanismo de operação diferente em relação às fibras tradicionais de suportar os modos confinados. Nelas, o núcleo possui um baixo índice de refração, e a casca é constituída por anéis dielétricos de diferentes índices de refração, alocados alternadamente. Para uma fibra de Bragg com núcleo oco, como a considerada neste trabalho, há perdas decorrentes dos modos de fuga. Portanto, a análise da dispersão destas estruturas se situa no plano complexo, tornando-a muito difícil. Esta dissertação será fundamentada em uma estratégia imprescindível à análise dos modos transversais TE0m, TM0m e dos híbridos. Os resultados encontrados são validados confrontando-os com os obtidos na literatura. O trabalho discutirá as perdas e dispersões dos modos citados, e os resultados obtidos poderão nortear as pesquisas das fibras de Bragg.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sistemas Multi-Robôs proporcionam vantagens sobre um robô individual, quando da realização de uma tarefa com maiores velocidade, precisão e tolerância a falhas. Os estudos dos comportamentos sociais na natureza têm permitido desenvolver algoritmos bio-inspirados úteis na área da robótica de enxame. Seguindo instruções simples e repetitivas, grupos de robôs, fisicamente limitados, conseguem solucionar problemas complexos. Quando existem duas ou mais tarefas a serem realizadas e o conjunto de robôs é heterogêneo, é possível agrupá-los de acordo com as funcionalidades neles disponíveis. No caso em que o conjunto de robôs é homogêneo, o agrupamento pode ser realizado considerando a posição relativa do robô em relação a uma tarefa ou acrescentando alguma característica distintiva. Nesta dissertação, é proposta uma técnica de clusterização espacial baseada simplesmente na comunicação local de robôs. Por meio de troca de mensagens entre os robôs vizinhos, esta técnica permite formar grupos de robôs espacialmente próximos sem precisar movimentar os robôs. Baseando-se nos métodos de clusterização de fichas, a técnica proposta emprega a noção de fichas virtuais, que são chamadas de cargas, sendo que uma carga pode ser estática ou dinâmica. Se uma carga é estática permite determinar a classe à qual um robô pertence. Dependendo da quantidade e do peso das cargas disponíveis no sistema, os robôs intercambiam informações até alcançar uma disposição homogênea de cargas. Quando as cargas se tornam estacionárias, é calculada uma densidade que permite guiar aquelas que estão ainda em movimento. Durante as experiências, foi observado visualmente que as cargas com maior peso acabam se agrupando primeiro enquanto aquelas com menor peso continuam se deslocando no enxame, até que estas cargas formem faixas de densidades diferenciadas para cada classe, alcançando assim o objetivo final que é a clusterização dos robôs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os processos de beneficiamento têxtil, como o alvejamento, a purga, o tingimento e as lavagens são reconhecidamente impactantes ao meio ambiente, tanto do ponto de vista de consumo de água, quanto da geração de efluentes. Os efluentes têxteis oriundos dos processos de beneficiamento se caracterizam por apresentarem elevadas concentrações de substâncias emulsificantes, íons cloreto, sólidos e matéria orgânica, além de alta toxicidade. Mas sem dúvida, o maior problema desses efluentes deve-se a presença de corantes e pigmentos. Alguns parâmetros físico-químicos importantes no controle da poluição hídrica são de difícil medição e consequente monitoramento, principalmente pela ausência de legislação que expresse de maneira clara e objetiva os limites destes parâmetros. Este fato permite avaliações dúbias e contestações aos órgãos ambientais. Especificamente no caso do parâmetro cor, esta subjetividade obriga muitas indústrias a empregarem valores de controle de cor oriundos de outros estados, ou até mesmo de outros países. No Rio de Janeiro, de acordo com a NT-202-R-10 do INEA, o critério para cor é estar virtualmente ausente no efluente. Neste contexto, este estudo avaliou algumas metodologias empregadas na determinação da cor em um efluente têxtil. Para a medição de cor, foram empregadas três metodologias descritas na literatura. A primeira metodologia desenvolvida para análise de água, também utilizada para efluentes líquidos, se baseia em medições espectrofotométricas em um único comprimento de onda padrão (450nm ou 465nm), tendo como referência soluções de Pt-Co. Essa metodologia não abrange todas as tonalidades do espectro de cores possíveis para os efluentes têxteis. O segundo método se baseia na medição em três comprimentos de onda (436, 525 e 620nm), denominado índice DFZ. O último método investiga os valores máximos de absorbância, na faixa entre 350 e 700nm, na amostra. Os resultados obtidos mostraram que as correções dos valores de medição de cor utilizando os valores máximos de absorbância expressaram melhor a realidade dos dados experimentais, visto que eliminam um possível erro causado pela restrita faixa de detecção do método tradicional, numa região do espectro típica para tonalidades encontradas na água.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir do consenso já existente, de que o desenvolvimento urbano é responsável, em parte, pelo desequilíbrio ambiental predominante nas cidades mais populosas, nas quais a administração dos resíduos gerados torna-se um grande desafio, este estudo foi realizado com a finalidade de desenvolver um modelo de gerenciamento para os resíduos de poda de árvores de espaços públicos, visando a utilização do material podado, considerado de boa qualidade, o que minimizaria a disposição de resíduos em aterros sanitários. Para tanto, foi desenvolvido um modelo diferenciado do ponto de vista de legal, gerencial, tecnológico e econômico, que pudesse servir de base à pesquisa e gerar estratégias para beneficiar o meio ambiente. A Unidade de Conservação, que pertence à Fundação Parques e Jardins da Prefeitura da Cidade do Rio de Janeiro, localizada na Taquara, foi analisada no Estudo de Caso. As espécies arbóreas que produzem maior volume de poda nessa seção foram selecionadas de modo que fosse possível o seu aproveitamento econômico-ecológico. Concluiu-se que há uma inviabilidade para segregação dos resíduos de poda por parte da Fundação Parques e Jardins e que os mesmos poderiam ser transferidos diretamente para o aterro receptor, em fase de encerramento de atividades, sem custos excedentes. Foi feita uma apreciação especial do Centro de Tratamento de Resíduos Sólidos de Gericinó, por ser grande receptor dos resíduos produzidos nas operações de manejo da área em evidência. Foi elaborada a proposta de criação de uma Usina Verde nas áreas já desativadas do aterro, como forma complementar ao processo de revitalização da área aterrada após o término de suas atividades. Esta ação contemplaria a região com um bosque, onde seriam absorvidos todos os produtos dos resíduos de poda. Haveria, também, a probabilidade de utilização operacional dos catadores nas etapas de obtenção de compostos orgânicos, cobertura morta e equipamentos paisagísticos entre outros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na gestão de recursos hídricos, as questões relacionadas aos impactos ambientais causados pelas Estações de Tratamento de Água não podem ser negligenciadas, devendo ser avaliadas em todos seus aspectos. Neste trabalho foram avaliadas as condições técnicasoperacionais e a gestão de seis Estações de Tratamento de Água de pequeno porte situadas nas regiões leste e dos lagos do estado do Rio de Janeiro. Os resultados apresentam dados de produção de água tratada, perdas de água contabilizadas com lavagem de filtros e descargas de decantadores e as não contabilizadas, gastos de energia e produtos químicos, produção de resíduos e seu destino final, bem como levantamento da capacitação do pessoal de operação, comparados com valores de literatura para ETAs consideradas eficientes. A partir da discussão dos resultados concluiu-se que há necessidade de correções de operação e manutenção das ETAs e monitoramento da qualidade das águas bruta e tratada, recomendando-se que a empresa de saneamento, efetivamente, implante melhorias para uma posterior implantação, em cada unidade, de um sistema de gestão ambiental, baseado nas normas ISO 14.000.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acidentes do trabalho podem comprometer a competitividade das empresas e até a sua sobrevivência, pois elevam os custos, reduzem a produtividade devido à baixa disponibilidade de pessoal e clima organizacional, além de poderem afetar a imagem da organização perante a sociedade. Geram grandes problemas para as pessoas (acidentados) e seus familiares, assim como para o país. No Brasil, as estatísticas oficiais de acidentes de trabalho apontam números elevados, mesmo considerando que ocorre subnotificação. O objetivo deste estudo foi elaborar, implantar e avaliar um processo de gestão de comportamento seguro, ferramenta voltada para prevenção de acidentes, em uma indústria de cosmético. Para tal elaboração, realizou-se uma revisão bibliográfica (sobre legislação brasileira, acidente do trabalho, prevenção, gestão do comportamento seguro, cultura de segurança e sistema de gestão de segurança e saúde ocupacional), entrevistas com lideranças e trabalhadores, treinamentos e reuniões de acompanhamento (coaching), inspeções nos postos de trabalho, auditoria de observações comportamentais e consulta a registros da empresa para avaliação do envolvimento dos gestores e trabalhadores. Verificou-se uma redução de 40% do número de acidentes no primeiro ano e redução de 79% dos acidentes até o segundo ano, além da melhoria da postura prevencionista de gestores e trabalhadores. Espera-se que esta dissertação possa ajudar e incentivar organizações a implantarem a metodologia de gestão do comportamento seguro, assim como estudantes e pesquisadores a fazerem testes, ajustes e adaptações para melhorar a performance de segurança dessas organizações, reduzindo os acidentes de trabalho e as agruras e sofrimentos que eles impõem para a classe trabalhadora.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Visando minimizar os impactos causados pelas ações antrópicas sobre o meio ambiente, mais especificamente sobre os recursos hídricos, torna-se imprescindível a busca por fontes alternativas para suprir as crescentes demandas de água para os mais diversos fins. Medidas como o reuso da água e a captação e aproveitamento de água das chuvas são fundamentais no contexto atual de busca por modelos sustentáveis de gestão dos recursos hídricos. No presente trabalho foi realizada extensa pesquisa bibliográfica sobre como o uso de telhados verdes pode contribuir para o uso racional da água potável e para a redução da ocorrência de enchentes. A área de estudo em questão foi Ilha Grande, localizada no litoral sul do Estado do Rio de Janeiro, uma Área de Preservação Permanente que, dentre outras Unidades de Conservação da Natureza, abriga o Parque Estadual de Ilha Grande. Para se analisar a viabilidade de implantação de um telhado verde na região, mais especificamente na Vila Dois Rios (23o11S, 44o12W), foi realizado o levantamento das séries históricas de chuvas da última década na região. Espécies vegetais compatíveis para uso em telhado verde foram encontradas na Ilha e, além disso, foram identificadas as premissas construtivas e operacionais relevantes. Para promover a conscientização dos visitantes e moradores locais foi elaborada uma cartilha informativa ilustrativa. Por fim, concluiu-se que existe a viabilidade de implantação de um telhado verde para captação e aproveitamento das águas das chuvas em Ilha Grande.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preocupação com recursos hídricos tem sido crescente em meios urbanos. O despejo de resíduos sólidos em rios é comum por populações ribeirinhas, favorecendo a ocorrência de enchentes, a proliferação de vetores e doenças e o desprezo da comunidade pelos rios. Nesse contexto, programas que relacionam lixo, recursos hídricos e população ribeirinha têm sido objeto de várias iniciativas governamentais. Este trabalho busca avaliar uma delas: o Programa Municipal de valorização de rios e lagoas Águas do Rio (Guardiões dos rios) que foi desenvolvido pela prefeitura do Rio de Janeiro entre abril de 2001 a março de 2008. O programa buscou aliar interesses de ordem técnica, de saúde pública e de cunho social para a comunidade por utilizar mão de obra local para a manutenção da calha do rio, visando à retirada de lixo e entulhos do rio, geralmente em áreas de pequena extensão territorial, com manutenção adequada de margens e entornos. A partir de entrevistas abertas e questionários aplicados junto aos envolvidos de 27 frentes de trabalho, constatou-se um resultado bastante positivo nas comunidades onde o Programa foi implantado: diminuição de enchentes, redução de vetores e melhoria da paisagem urbana. Contudo, observou-se também profundo descontentamento com a interrupção do Programa, atribuído principalmente ao uso indevido por determinados políticos (ampliação descontrolada do Programa com abandono de critérios técnicos) e a transferência da sua gestão para uma instituição municipal que não o manteve funcionando. Conclui-se, sobretudo, que o Programa Guardiões dos rios é uma iniciativa criativa de ações emergenciais em rios urbanos, em nível municipal, que combina a retirada de lixo dos rios, um trabalho social e campanhas de educação ambiental junto às comunidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.