865 resultados para Fratura (Engenharia)
Resumo:
Este trabalho apresenta o desenvolvimento de sistemas inteligentes aplicados ao monitoramento de estruturas aeronáuticas abordando dois modelos distintos: o primeiro é a análise e classificação de imagens de ultrassom de estruturas aeronáuticas com objetivo de apoiar decisões em reparo de estruturas aeronáuticas. Foi definido como escopo do trabalho uma seção transversal da asa da aeronave modelo Boeing 707. Após a remoção de material superficial em áreas comprometidas por corrosão, é realizada a medição da espessura ao longo da área da peça. Com base nestas medições, a Engenharia realiza a análise estrutural, observando os limites determinados pelo manual de manutenção e determina a necessidade ou não de reparo. O segundo modelo compreende o método de impedância eletromecânica. É proposto o desenvolvimento de um sistema de monitoramento de baixo custo aplicado em uma barra de alumínio aeronáutico com 10 posições de fixação de porcas e parafusos. O objetivo do sistema é avaliar, a partir das curvas de impedância extraídas do transdutor PZT fixado na barra, sua capacidade de classificar a existência ou não de um dano na estrutura e, em caso de existência do dano, indicar sua localização e seu grau de severidade. Foram utilizados os seguintes classificadores neste trabalho: máquina de vetor de suporte, redes neurais artificiais e K vizinhos mais próximos.
Resumo:
Técnicas não-intrusivas de medição de vazão constituem uma necessidade crescente em diversas aplicações. Atualmente, diversos estudos têm sido realizados com o objetivo de desenvolver técnicas de medição não-intrusivas que possam suprir as deficiências das técnicas existentes. Este trabalho visa desenvolver um medidor de vazão baseado no princípio de convecção forçada (termal) não-intrusivo inteligente. O medidor utiliza dois transdutores RTD comerciais do tipo PT100, um aquecido, que é responsável pela medição da velocidade de escoamento, e o outro utilizado como referência de set-point de temperatura do sensor aquecido. Uma Rede Neural é responsável por corrigir os erros de medição do instrumento. Para a avaliação do medidor construído, foi desenvolvida uma bancada de realização de ensaios, possibilitando a variação da vazão e temperatura na seção de teste. Com o intuito de prover a bancada de uma referência para comparação, foi instalado também um medidor do tipo Venturi normalizado segundo a ABNT.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Este trabalho propõe uma arquitetura reutilizável que permite a gerência de uma infraestrutura de suporte para aplicações Web, utilizando máquinas virtuais. O objetivo da arquitetura é garantir qualidade de serviço, atuando nos servidores físicos (hospedeiros) ou manipulando as máquinas virtuais, e avaliando o cumprimento das restrições de operação (tempo de resposta máximo). Além disso, através do uso racional dos recursos utilizados, a proposta visa à economia de energia. O trabalho também inclui uma avaliação de desempenho realizada sobre um sistema implementado com base na arquitetura. Esta avaliação mostra que a proposta é funcional e o quanto ela pode ser vantajosa do ponto de vista do uso de recursos, evitando desperdício, mantendo-se ainda a qualidade de serviço em níveis aceitáveis pela aplicação.
Resumo:
Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.
Resumo:
Neste trabalho são analisados os quatro modos de plasmon, ligados simétrico (Sb) e assimétrico (ab), fuga pelo núcleo (ln) e fuga pela cobertura (lc), que se propagam em uma fibra óptica fracamente guiada envolta por um filme metálico. No filme metálico é depositada uma camada dielétrica extra e acima desta, uma outra denominada cobertura. A análise será desenvolvida para filmes metálicos de prata, paládio e ouro. Esta estrutura é muito útil na confecção de sensores ópticos.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.
Resumo:
O efeito de instalação de estacas cravadas em areia, que promove um aumento da compacidade do solo e de seus parâmetros de resistência e deformabilidade, é analisado nesta dissertação em conjunto com o efeito de grupo. O procedimento estabelecido objetiva quantificar a melhoria após a instalação de um grupo de estacas e foi desenvolvido nesta pesquisa a partir da contribuição de Alves (1998). Para a utilização deste procedimento, foram propostas correlações do módulo de Young do solo em função da resistência à penetração NSPT (ou da resistência à penetração normalizada N60), a partir de um banco de dados obtido da literatura, visando não apenas as aplicações implementadas neste estudo, como também nortear futuras aplicações práticas. Na análise de casos documentados da literatura, foi utilizado o programa Plaxis 3D Foundation. Inicialmente foi procedida a calibração do programa através da reprodução de um caso de instrumentação de um grupo de estacas na argila rija de Londres, muito bem documentado por Cooke et al. (1980). Os resultados das simulações, com parâmetros do solo obtidos da literatura, se ajustaram muito bem aos resultados experimentais, seja nos valores de recalque, seja nos diagramas de transferência de carga. Posteriormente, a melhoria do solo por efeito da instalação foi estimada, através do procedimento estabelecido nesta dissertação, baseado em Alves (1998), a partir das características iniciais do solo antes da instalação de um grupo de estacas em modelo reduzido em solo arenoso. Obtidos os parâmetros melhorados previstos para o solo após a instalação, estes foram aplicados a um grupo de 9 estacas, para diferentes espaçamentos relativos, como dados de entrada no programa Plaxis. A comparação dos resultados experimentais com aqueles simulados numericamente sinaliza para o potencial tanto do programa Plaxis, na reprodução do comportamento do conjunto, como do modelo de Alves (1998), que norteou o procedimento proposto nesta pesquisa. O fator de escala, ressaltado na dissertação, bem como outros aspectos relevantes observados nas análises realizadas, são propostos como temas futuros a serem investigados na continuidade desta linha de pesquisa.
Resumo:
O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.
Resumo:
Atualmente, o crescimento dos problemas de vibrações excessivas sobre pisos mistos (aço-concreto) tem conduzido à necessidade de desenvolvimento de critérios específicos para projetos estruturais submetidos à ação de atividades humanas rítmicas. Com base no desenvolvimento desta dissertação de mestrado, objetiva-se, principalmente, verificar a influência das ligações estruturais (ligações viga-viga), sobre a resposta dinâmica não-linear de pisos mistos (aço-concreto) de edificações, quando submetidos a cargas dinâmicas humanas rítmicas. Deste modo, o carregamento dinâmico empregado para a simulação das atividades humanas sobre o modelo estrutural investigado foi obtido através de testes experimentais com indivíduos praticando atividades rítmicas e não rítmicas. O modelo analisado nesta dissertação corresponde a um piso misto (aço-concreto) com uma área total de 1600m2 e consiste de um ambiente onde serão desenvolvidas atividades de ginástica aeróbica. O sistema estrutural é constituído por lajes de concreto armado apoiadas sobre vigas de aço, simulando o comportamento de um sistema estrutural misto (aço-concreto) com interação total. A metodologia de análise desenvolvida emprega técnicas usuais de discretização presentes no método dos elementos finitos, com base no emprego do programa ANSYS. A modelagem do sistema contempla ligações estruturais do tipo rígidas, semirrígidas e flexíveis. Os valores das acelerações de pico foram comparados com os limites recomendados por normas de projeto, baseando-se em critérios de conforto humano. As conclusões alcançadas ao longo deste trabalho de pesquisa revelam que as ligações estruturais do tipo viga-viga não apresentam influência significativa, no que diz respeito a resposta dinâmica não-linear da estrutura. Por outro lado, as acelerações de pico obtidas com base na análise dinâmica não-linear apresentam valores elevados indicando que o piso misto (aço-concreto) investigado apresenta problemas de vibração excessiva inerentes ao conforto humano.
Resumo:
O conhecimento do tema da interação solo-estrutura permite que as edificações sejam projetadas de maneira mais realista com o comportamento físico. Há décadas atrás seria inviável um dimensionamento considerando a deformabilidade do solo de fundação, e as estruturas eram dimensionadas adotando-se as fundações como indeslocáveis, sob uma base rígida. Essa consideração conduz a respostas estruturais inadequadas, por vezes comprometendo a segurança e a estabilidade do conjunto estrutural. Atualmente, o avanço tecnológico permite a obtenção de resultados de milhões de cálculos matemáticos em questões de segundos, podendo-se obter soluções mais arrojadas e dinâmicas, facilitando o dimensionamento estrutural de forma a atender ao novo padrão de construção e arquitetura. A relevância de tal assunto motivou a análise numérica de um edifício de 4 pavimentos de estrutura mista (aço-concreto), considerando o efeito da interação solo-estrutura. As análises foram conduzidas com o programa ANSYS, de elementos finitos, substituindo-se os apoios indeslocáveis por molas discretas, lineares e elásticas, com rigidez equivalente ao solo, conforme hipótese de Winkler. Os parâmetros dos solos de fundação foram adquiridos a partir de correlações empíricas existentes na literatura e da utilização do programa computacional PLAXIS para a determinação das constantes elásticas das molas. Neste trabalho, foram comparados os resultados de reações verticais, esforços normais, momentos fletores e deslocamentos da estrutura obtidos pelo modelo clássico de projeto, que considera apoios indeslocáveis, e pelo modelo de Winkler, que considera a interação solo-estrutura. As análises foram executadas para seis diferentes tipos de solos argilosos, siltosos e arenosos. Os resultados obtidos mostraram claramente a redistribuição dos momentos fletores, esforços normais e reações verticais nos pilares com diferenças significativas para os pilares de canto e periféricos. Observou-se uma tendência de alívio dos esforços nos pilares mais solicitados, adotando a estrutura assentada em uma base rígida. As análises ressaltaram a relevância da interação solo-estrutura, com efeitos provenientes do rearranjo do solo de fundação nos elementos estruturais das edificações.
Resumo:
Passarelas de pedestres mistas (aço-concreto) e de aço são frequentemente submetidas a ações dinâmicas de magnitude variável, devido à travessia de pedestres sobre a laje de concreto. Estas ações dinâmicas podem produzir vibrações excessivas e dependendo de sua magnitude e intensidade, estes efeitos adversos podem comprometer a confiabilidade e a resposta do sistema estrutural e, também, podem levar a uma redução da expectativa de vida útil da passarela. Por outro lado, a experiência e o conhecimento dos engenheiros estruturais em conjunto com o uso de novos materiais e tecnologias construtivas têm produzido projetos de passarelas mistas (aço-concreto) bastante arrojados. Uma consequência direta desta tendência de projeto é um aumento considerável das vibrações estruturais. Com base neste cenário, esta dissertação visa investigar o comportamento dinâmico de três passarelas de pedestres mistas (aço-concreto) localizadas no Rio de Janeiro, submetidas ao caminhar humano. Estes sistemas estruturais são constituídos por uma estrutura principal de aço e laje em concreto e são destinados à travessia de pedestres. Deste modo, foram desenvolvidos modelos numérico-computacionais, adotando-se as técnicas tradicionais de refinamento presentes em simulações do método de elementos finitos, com base no uso do software ANSYS. Estes modelos numéricos permitiram uma completa avaliação dinâmica das passarelas investigadas, especialmente em termos de conforto humano. As respostas dinâmicas foram obtidas em termos de acelerações de pico e comparadas com valores limites propostas por diversos autores e normas de projeto. Os valores de aceleração de pico e aceleração rms encontrados na presente investigação indicaram que as passarelas analisadas apresentaram problemas relacionados com o conforto humano. Assim sendo, considerando-se que foi detectado que estas estruturas poderiam atingir níveis elevados de vibração que possam vir a comprometer o conforto dos usuários, foi verificado que uma estratégia para o controle estrutural era necessária, a fim de reduzir as vibrações excessivas nas passarelas. Finalmente, uma investigação foi realizada com base em alternativas de controle estrutural objetivando atenuar vibrações excessivas, a partir do emprego de sistemas de atenuadores dinâmicos sintonizados (ADS).
Resumo:
Os RCC são originados dos diversos processos da construção civil, com características bastante particulares pela variedade dos métodos construtivos empregados. Suas deposições em locais inadequados causam vários impactos com diferentes tempos de reação e de degradação do meio ambiente. Para impedi-los foi aprovada a Resolução 307 do CONAMA, que estabelece critérios e normas de caráter protetor ao meio ambiente, porém as administrações públicas possuem inúmeras dificuldades técnicas e financeiras para sua implementação. Para auxiliar os municípios, a CEF elaborou dois manuais de orientações para o manejo e gestão dos RCC, direcionando o sistema gestor. Uma opção para a gestão de RCC é a reciclagem. O Município do Rio de Janeiro com seu relevo original formado por mangues e morros, sofreu grandes aterros e sofre até os dias atuais, utilizando para isso os RCC e o desmonte de antigos morros. Os RCC, após coletados, são destinados a uma única Área de Transbordo e Triagem, com capacidade insuficiente para recebê-los. A ausência de controle do órgão gestor sobre os RCC, seus dados de produção e de destinação, exige uma estimativa dos RCC gerados no Município e uma observação global sobre seus destinos, considerando os aterros autorizados pela SMAC. Foi realizada uma análise crítica da gestão corretiva adotada pelo sistema gestor, suas particularidades e dificuldades, e o perfil atual sobre a reciclagem de RCC no Rio de Janeiro. Algumas propostas para a melhoria do sistema gestor foram apresentadas e sugerida a necessidade de um estudo mais aprofundado e de um levantamento mais completo da realidade dos RCC no Município do Rio de Janeiro.