755 resultados para Engenharia Eletrotécnica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa analisar as implicações da Lei n. 12.690 de 2012 para as cooperativas de trabalho em relação à situação organizacional, socioeconômica e às condições gerais de trabalho, em particular, no caso das cooperativas de catadores de material recicláveis. A pesquisa tem caráter exploratório e qualitativo. Como procedimento, adotou-se a revisão da literatura, complementada com entrevistas dirigidas às lideranças de cooperativas de catadores localizadas no Estado do Rio de Janeiro. É inegável que esta lei é um marco para os trabalhadores de cooperativas. Dentre outros, ela visa regulamentar os aspectos socioeconômicos da organização e propiciar garantias mínimas nas relações de trabalho, tais como: número mínimo de sete trabalhadores para abrir uma cooperativa; retirada de um salário mínimo mensal; remuneração do trabalho noturno superior à do diurno; duração do trabalho não superior a oito horas diárias e 44 horas semanais; repouso semanal remunerado; além de estabelecer em assembleia, os fundos para possibilitar outros direitos dos sócios, dentre eles a saúde e segurança no trabalho. O estudo concluiu que considerável parte dos entrevistados desconhece a referida lei e que o fator econômico é um dos aspectos de maior impacto na sua aplicação. Contudo, eles poderão ser superados com a efetividade das políticas públicas a fim de compensar os custos adicionais que terão as cooperativas com a aplicação desta lei. Recomenda-se a implantação de programas municipais de coleta seletiva de resíduos com a participação ativa dos catadores, como determina a Política Nacional de Resíduos Sólidos, sendo fundamental o envolvimento de todos os setores da sociedade. Além disso, que a nova lei das cooperativas de trabalho seja mais divulgada e debatida com os setores interessados. Deve-se aperfeiçoar os programas dirigidos às cooperativas de catadores, com maior incentivo à reciclagem, através da redução ou isenção dos impostos para as atividades de reciclagem e dos materiais reciclados, por exemplo. Nas áreas de saúde e segurança do trabalho, é importante a criação de normas específicas para esta categoria de trabalhadores em conformidade com a sua realidade. Espera-se que a pesquisa contribua para a melhor aplicação prática da lei analisada nas cooperativas. Como proposta de estudos futuros, sugere-se a criação de indicadores para o monitoramento da aplicação da Lei n. 12.690 de 2012 após a sua regulamentação, os quais poderão ser utilizados com a finalidade de garantir a melhoria contínua e fortalecer as cooperativas de trabalho, em particular, as de catadores de materiais recicláveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O encerramento do Aterro Metropolitano de Jardim Gramacho (AMJG) foi pioneiro na formulação de políticas públicas socioambientais no Brasil, ao incluir a questão social nas ações de saneamento e apoiar a organização de cooperativas de catadores de materiais recicláveis. Este trabalho objetivou acompanhar o encerramento desse aterro e o processo de implantação do Polo de Reciclagem situado em Duque de Caxias, Região Metropolitana do Rio de Janeiro. A pesquisa teve caráter exploratório e abordagem qualitativa. Utilizou-se de entrevistas aplicadas a uma amostra de lideranças de catadores organizados e não organizados que atuavam na região. O estudo foi realizado entre setembro de 2011 a novembro de 2013. A política sanitária brasileira visa à melhoria das condições de trabalho do catador e incentiva a sua inclusão social, através da organização em cooperativas e/ou associações. Conclui-se que a participação dos catadores no processo de encerramento do AMJG, através das articulações com o governo do Estado do Rio de Janeiro, foi fundamental, embora muitos outros problemas socioambientais ainda persistam nesta região e precisam ser equacionados pelo poder público. Além disso, cabe destacar o papel dos programas sociais do governo federal que podem beneficiar essa categoria de trabalhadores. Para estudos futuros, recomenda-se acompanhar o desenvolvimento e a sustentabilidade deste Polo de Reciclagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho objetiva contribuir para o desenvolvimento de metodologia de análises de vulnerabilidade ecológica de bacias hidrográficas, com foco nos ecossistemas de água doce. Partiu-se de uma base metodológica proposta pela Rede WWF e de sua adaptação para a Bacia Lagos São João. Através da aplicação da metodologia desenvolvida, foi possível realizar uma análise multicriterial que identificou, por um lado, os principais estressores afetando a integridade ecológica da bacia, e sua severidade e frequência, mediante avaliação colaborativa de um painel de especialistas; por outro lado, avaliou-se a sensibilidade da bacia aos estressores selecionados. O uso de ferramentas de sistemas de informação geográfica permitiu espacializar, localizar e quantificar as ameaças (estressores), gerando mapas de risco ecológico, identificando em especial, as unidades mais desequilibradas do território em análise. Estas são indicadas como prioritárias para as ações de conservação dos ecossistemas aquáticos, e dos serviços ecossistêmicos providos, do qual depende grande parte da população da bacia. Esta dissertação apresenta, portanto, duas principais contribuições: um estudo global e preliminar da integridade ecológica da bacia Lagos São João; e, sobretudo, adaptações e detalhamentos da base metodológica desenvolvida pela Rede WWF, replicáveis em outras bacias hidrográficas. Ressalte-se que esta análise constitui etapa preliminar para a definição de estratégias de adaptação e resiliência de bacias hidrográficas às mudanças ambientais globais associadas às variabilidades e mudanças climáticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Aterro Metropolitano de Gramacho, considerado o maior da América Latina, teve encerradas as suas atividades de disposição de resíduos em meados de 2012. A disposição de resíduos no local foi realizada diretamente sobre o solo de fundação desde o início de sua operação (1978). Considerando-se que os contaminantes presentes no lixiviado podem migrar por difusão através da argila organo-salina do aterro e atingir o entorno, foi feita uma investigação da contaminação do solo no perímetro do aterro. Essa investigação foi realizada no líquido intersticial do solo e foi pautada em dois tipos de contaminantes: nitrogênio amoniacal e compostos orgânicos, medidos pelo parâmetro carbono orgânico total (COT). Além disso, foram também realizados ensaios de toxicidade aguda com a espécie Vibrio fischeri para avaliar a toxicidade no solo. Ensaios de sorção e difusão foram executados a fim de melhor compreender o comportamento dos contaminantes investigados. Os resultados apontaram baixos valores de nitrogênio amoniacal e de COT no solo. Os valores de nitrogênio amoniacal são considerados baixos, pois mesmo em amostras de solo da barreira lateral, que é situada próxima à antiga vala de drenagem de lixiviado, estes são menores que 1% do encontrado no lixiviado, indicando a adsorção do solo. Os ensaios de toxicidade aguda apontaram o efeito Hormesis nas amostras de líquido intersticial, indicando a possibilidade de presença de toxicidade crônica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A operação de coleta e transporte de resíduos sólidos urbanos é indispensável dentro de quaisquer sistema de limpeza urbana. É necessário que se intensifique a pesquisa nessa área de conhecimento afim de produzir-se material de auxílio ao poder público municipal e o setor privado. Deste modo o objetivo geral deste trabalho é o estudo da utilização de ferramentas computacionais para a otimização dos roteiros dos serviços de coleta de resíduos sólidos domiciliares. Foi feito um comparativo entre os itinerários percorridos pelos caminhões de coleta quando dimensionados de forma empírica e quando dimensionados com o auxílio de ferramentas computacionais. Verificou-se as vantagens e desvantagens de cada modelo de dimensionamento e o grande potencial de redução de custos quando utilizadas ferramentas computacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O dimensionamento de uma rede de monitoramento e controle da qualidade do ar requer o conhecimento da área onde os poluentes atmosféricos, emitidos por fontes fixas e móveis, tendem a se concentrar e os seus fenômenos de dispersão. A definição das áreas de monitoramento da poluição atmosférica na Região Metropolitana do Rio de Janeiro é um tema discutido desde o início dos anos 80 quando foram estabelecidas as bacias aéreas a partir de cartas topográficas. Este projeto consiste em pesquisa aplicada ao estabelecimento da configuração espacial e mapeamento das bacias aéreas a partir de dados digitais. Tal esforço é justificado em função do alcance dos beneficiados diretamente e à sociedade em geral, a partir do conhecimento das condições da qualidade do ar e seu comportamento ao longo do tempo. O estudo realizado se concentra na Região Metropolitana do Rio de Janeiro, com base em dados necessários para a avaliação da dinâmica das massas de ar na área de estudo e suas características para definição das novas bacias aéreas com suporte de um Sistema de Informação Geográfica (SIG). Apoiado nos dados cartográficos digitais e nos dados cadastrais das estações de monitoramento, foi projetado e implementado um SIG, em atendimento aos requisitos de mapeamento digital das bacias aéreas, da distribuição espacial das estações de monitoramento da qualidade do ar, das principais fontes de emissão de poluentes e das principais vias de circulação veicular, onde foram identificadas e mapeadas regiões com características semelhantes para diversos cenários com uso potencial do SIG. Foi criado um banco de dados georeferenciado, previamente modelado oferecendo consultas espaciais destinadas às necessidades de gestão ambiental. Com a utilização do SIG, foram identificadas áreas com deficiência no monitoramento, áreas críticas de poluição atmosférica e propostas as novas bacias aéreas delimitadas a partir dos dados digitais. O SIG se mostrou uma ferramenta eficiente para a gestão ambiental da qualidade do ar na RMRJ, pois permitiu em ambiente de escritório a representação dos elementos necessários para a avaliação da configuração espacial das bacias aéreas e proporcionou uma visualização dinâmica da distribuição espacial das estações de monitoramento nas bacias aéreas propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ozônio é um poluente secundário formado pela presença de poluentes atmosféricos primários e secundários formados a partir de uma sequência de reações entre o dióxido de nitrogênio e de compostos orgânicos voláteis (COV). No grupo de compostos orgânicos voláteis estão os aldeídos e os BTEX. Os COVS são emitidos, no Rio de Janeiro, principalmente por veículos automotores. O presente estudo realizou então coletas de aldeídos e BTEX no período de 2013. Além disso, com dados de 2012 e 2013 de poluentes de uma rede automática de monitoramento analisou o possível efeito fim de semana existente na região. O efeito fim de semana é caracterizado por altas concentrações de ozônio no final de semana mesmo com a redução da frota das emissões de NOx e COVs neste período.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de tratamento de efluentes por lodos ativados é um dos processos de tratamento mais difundido em todo o mundo, devido principalmente a qualidade do efluente obtido. Entretanto, trata-se de um processo biológico dependente da atividade bacteriana para a estabilização da matéria orgânica proveniente dos esgotos e com isso, se faz necessária a manutenção das condições ideais para a sobrevivência e proliferação das bactérias e dos outros microrganismos envolvidos neste processo. Efluentes salinos causam um grande distúrbio na atividade celular dos microrganismos presentes neste processo. A análise biológica do lodo e a taxa de consumo de oxigênio são testes rápidos, práticos, baratos e sem geração de resíduos químicos e que foram adotados neste trabalho para acompanhar a eficiência do processo. Esses dois parâmetros são amplamente utilizados em pesquisas, porém ainda é sub-utilizado para efetivo monitoramento de Estações de Tratamento de Esgotos. Este presente trabalho investigou a influência da salinidade nos processos de lodos ativados através de parâmetros que levam em consideração a atividade metabólica dos organismos aeróbios e através do monitoramento da comunidade de protozoários indicadores biológicos do lodo ativado, os testes de respirometria e os testes da análise biológica do lodo, respectivamente. Os resultados da atividade metabólica são apresentados em forma de gráficos, em termos de taxa de consumo de oxigênio específico e porcentagem de inibição. Os resultados da qualidade biológica são apresentados em números de 0 a 10 de acordo com o Índice de Madoni (1994). Os resultados demonstraram a imediata intoxicação dos lodos ativados em concentrações de sal a partir da concentração mínima utilizada neste trabalho, que foi de 5 gL de NaCl. Para entender melhor o processo de intoxicação foi realizado experimentos de 96 horas de monitoramento após o choque de cloreto de sódio nos reatores com lodos ativados, os resultados não demonstraram melhoria no processo. Os resultados sugerem que os testes de taxa de consumo de oxigênio em consonância com os testes da qualidade biológica são eficientes e complementares para a avaliação da influência da salinidade no processo de lodos ativados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A argila encontrada na Barra da Tijuca, Rio de Janeiro, é conhecida por ser muito mole e de peso específico bastante baixo. Passados 17 anos após a execução de um aterro em um dos depósitos argilosos da região, foram realizados ensaios de piezocone e SPT para aferir a espessura atual da camada mole. Tendo-se as espessuras originais da camada, determinadas a partir de ensaios de palheta e SPT na época da realização da obra, foi possível,assim, determinar o recalque que realmente ocorreu. O recalque primário foi calculado através dos parâmetros de compressibilidade previamente conhecidos daquele material. Foi aplicada a correção devido à submersão do aterro e, para isso, foi desenvolvida neste trabalho uma nova metodologia de cálculo para este efeito, considerando a submersão do aterro de forma gradual em todo o seu desenvolvimento matemático. Através da diferença entre o recalque total verificado nos ensaios e o recalque primário calculado, determinou-se a magnitude do recalque secundário. Com isso, estimou-se o OCR secundário do local. Este parâmetro surge da teoria que considera que os recalques secundários também ocorrem devido à variação das tensões efetivas, mas, nesse caso, horizontais. As principais conclusões desta pesquisa apontam para um valor de OCR secundário maior do que aquele já conhecido da argila de Sarapuí, que serviu de base para a referida teoria. Além disso, a proposta de cálculo do efeito da submersão se mostrou fácil e rápida de ser aplicada e forneceu resultados próximos daqueles obtidos pelas metodologias usuais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente existem diferentes ferramentas computacionais para auxílio nos estudos de coordenação da proteção, que permitem traçar as curvas dos relés, de acordo com os parâmetros escolhidos pelos projetistas. Entretanto, o processo de escolha das curvas consideradas aceitáveis, com um elevado número de possibilidades e variáveis envolvidas, além de complexo, requer simplificações e iterações do tipo tentativa e erro. Neste processo, são fatores fundamentais tanto a experiência e o conhecimento do especialista, quanto um árduo trabalho, sendo que a coordenação da proteção é qualificada pela IEEE Std. 242 como sendo mais uma arte do que uma ciência. Este trabalho apresenta o desenvolvimento de um algoritmo genético e de um algoritmo inspirado em otimização por colônia de formigas, para automatizar e otimizar a coordenação da função de sobrecorrente de fase de relés digitais microprocessados (IEDs), em subestações industriais. Seis estudos de caso, obtidos a partir de um modelo de banco de dados, baseado em um sistema elétrico industrial real, são avaliados. Os algoritmos desenvolvidos geraram, em todos os estudos de caso, curvas coordenadas, atendendo a todas as restrições previamente estabelecidas e as diferenças temporais de atuação dos relés, no valor de corrente de curto circuito trifásica, apresentaram-se muito próximas do estabelecido como ótimo. As ferramentas desenvolvidas demonstraram potencialidade quando aplicadas nos estudos de coordenação da proteção, tendo resultados positivos na melhoria da segurança das instalações, das pessoas, da continuidade do processo e do impedimento de emissões prejudiciais ao meio ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.