856 resultados para Algoritmos experimentais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tratamento e o destino final dos resíduos sólidos de serviços de saúde são assuntos que têm gerado controvérsias no tocante às alternativas tecnológicas disponíveis e aos riscos para a saúde pública e ao meio ambiente. O presente trabalho consistiu na caracterização físico-química e toxicológica de lixiviados de resíduos de serviços de saúde e de lixo domiciliar coletados pela Companhia Municipal de Limpeza Urbana (COMLURB) na cidade do Rio de Janeiro e teve por objetivo subsidiar a discussão com relação à questão da necessidade de tratamento e disposição final diferenciada para os resíduos de serviços de saúde. Os resultados obtidos ilustram uma biodegradabilidade não tão elevada dos lixiviados das Células experimentais C1, C2 e C3, onde C1 contém 100% de RSD, C2 100% de RSS e C3 98% de RSD em mistura com 2% de RSS. Percolados oriundos de aterros sanitários novos se caracterizam nomalmente por valores elevados de biodegradabilidade. No entanto, os resultados mostram um baixo nível de biodegradabilidade dos lixiviados das Células experimentais C1, C2 e C3. Os parâmetros físico-químicos analisados indicam que os microorganismos encontram-se ainda na fase de adaptação ao meio. Os resultados mostraram mais similaridades do que diferenças no lixiviado gerados da disposição de RSD, RSS e sua codisposição durante um período de 60 dias de operação das células experimentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pseudomonas aeruginosa é um importante agente de pneumonia, particularmente em pacientes submetidos à ventilação mecânica, que pode evoluir para sepse, com elevadas taxas de letalidade. Na sepse, o processo inflamatório sistêmico exacerbado favorece o desequilíbrio entre as vias de coagulação e fibrinólise e a instalação de um estado pró-coagulante, com o aparecimento de trombose microvascular, coagulação intravascular disseminada e falência de múltiplos órgãos. Conhecendo a potente atividade pró-inflamatória da toxina ExoU produzida por P. aeruginosa, decorrente de sua atividade fosfolipásica A2, o objetivo desta tese foi investigar seu potencial de indução de alterações hemostáticas relacionadas à patogênese da sepse. Utilizando modelo de sepse em camundongos inoculados, por via intratraqueal, com suspensões de P. aeruginosa produtora de ExoU (PA103) ou de cepa com deleção do gene exoU, não produtora da toxina, foi mostrado que ExoU determinou maior gravidade da infecção, maior taxa de letalidade, leucopenia, trombocitose, hiperpermeabilidade vascular e transudação plasmática, evidenciadas, respectivamente, pela maior concentração de proteínas nos lavados broncoalveolares (LBAs) e acúmulo do corante Azul de Evans, previamente inoculado nos animais, por via endovenosa, no parênquima renal. ExoU favoreceu, também, a ativação plaquetária, confirmada pela maior concentração de plaquetas expressando P-selectina em sua superfície, maior número de micropartículas derivadas de plaquetas e maior concentração plasmática de tromboxano A2. A histopatologia dos pulmões e rins dos animais infectados com PA103 confirmou a formação de microtrombos, que não foram detectados nos animais controles ou infectados com a cepa mutante. Nos pulmões, a produção de ExoU determinou intensa resposta inflamatória com maior concentração de leucócitos totais e polimorfonucleados, interleucina-6 e fator de necrose tumoral-α nos LBAs. A análise imunohistoquímica mostrou intensa deposição de fibrina nos alvéolos e septos interalveolares. A atividade pró-coagulante dependente do fator tissular detectada nos LBAs dos camundongos infectados com PA103 foi independente da produção do inibidor da via de ativação do fator tissular (TFPI), mas associada ao aumento da produção do inibidor do ativador do plasminogênio-1 (PAI-1). Para investigar a participação do fator de ativação plaquetária (PAF) na liberação de PAI-1, foi pesquisada a atividade da enzima PAF-acetil-hidrolase (PAF-AH) nos LBAs dos camundongos. A atividade de PAF-AH apresentou-se significativamente elevada nos LBA dos camundongos infectados com PA103. O tratamento dos animais com um inibidor do PAF, antes da infecção, resultou na diminuição significativa das concentrações de PAI-1 e de leucócitos totais, bem como da atividade pró-coagulante dos LBAs. In vitro, ExoU induziu maior expressão do RNA mensageiro de PAI-1 e maior liberação da proteína PAI-1 nos sobrenadantes de células epiteliais respiratórias da linhagem A549. O tratamento das células A549 com um anticorpo anti-receptor de PAF, antes da infecção, reduziu significativamente a concentração de PAI-1 nos sobrenadantes de células infectadas com a cepa selvagem. Estes resultados demonstraram um novo mecanismo de virulência de P. aeruginosa através da atividade pró-trombótica de ExoU e a possibilidade de utilização da identificação de ExoU em isolados clínicos de pacientes graves como um marcador prognóstico para estes pacientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quantum Computing is a relatively modern field which simulates quantum computation conditions. Moreover, it can be used to estimate which quasiparticles would endure better in a quantum environment. Topological Quantum Computing (TQC) is an approximation for reducing the quantum decoherence problem1, which is responsible for error appearance in the representation of information. This project tackles specific instances of TQC problems using MOEAs (Multi-objective Optimization Evolutionary Algorithms). A MOEA is a type of algorithm which will optimize two or more objectives of a problem simultaneously, using a population based approach. We have implemented MOEAs that use probabilistic procedures found in EDAs (Estimation of Distribution Algorithms), since in general, EDAs have found better solutions than ordinary EAs (Evolutionary Algorithms), even though they are more costly. Both, EDAs and MOEAs are population-based algorithms. The objective of this project was to use a multi-objective approach in order to find good solutions for several instances of a TQC problem. In particular, the objectives considered in the project were the error approximation and the length of a solution. The tool we used to solve the instances of the problem was the multi-objective framework PISA. Because PISA has not too much documentation available, we had to go through a process of reverse-engineering of the framework to understand its modules and the way they communicate with each other. Once its functioning was understood, we began working on a module dedicated to the braid problem. Finally, we submitted this module to an exhaustive experimentation phase and collected results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As estatinas são fármacos inibidores competitivos da enzima hidroxi-3-metil-glutaril Coenzima A (HMGCoA) redutase, amplamente utilizados para o controle da hipercolesterolemia total e, em especial, para a redução dos níveis séricos de LDLc (Low Density Lipoprotein cholesterol). Além do efeito primário, esses fármacos apresentam vários efeitos secundários, chamados de efeitos pleiotrópicos, envolvendo atividade anti-inflamatória, antitumoral e antiparasitária. Para o desenvolvimento de inovações na área de química medicinal é imprescindível avaliar o risco de efeitos adversos para saúde ou, em outras palavras, a segurança terapêutica do novo produto nas condições propostas de uso. Nesse sentido, o objetivo desse trabalho foi investigar a genotoxicidade de quatro análogos inibidores da biossíntese de lipídios, da classe das estatinas, em modelos experimentais in vitro, testados previamente contra o clone W2 de Plasmodium falciparum a fim de se obter o IC50 dessas moléculas frente ao patógeno. Foram desenvolvidas quatro novas moléculas (PCSR02.001, PCSR09.001, PCSR08.002 e PCSR10.002). Para a avaliação da toxicidade, foram realizados o teste de mutagenicidade bacteriana (teste de Ames), o ensaio de viabilidade celular utilizando o reagente WST-1 e o ensaio de indução de micronúcleos, ambos utilizando uma linhagem ovariana (CHO-K1) e uma linhagem hepática (HepG2). Levando em conta o fato de nenhuma das amostras ter induzido efeitos mutagênicos nas linhagens de S. enterica sorovar Typhimurium, e PCSR10.002 ter apresentado citotoxicidade sugere-se então que este composto seja o mais tóxico. Comparativamente, PCSR10.002 foi mais genotóxico e citotóxico para a linhagem CHO-K1 do que para a linhagem HepG2. PCSR02.001 apresentou elevado potencial genotóxico para células ovarianas, mas não foi capaz de induzir a formação de micronúcleos em células hepáticas, apresentando, portanto um perfil similar ao observado em PCSR10.002. Assim como a atorvastatina, PCSR09.001 apresentou elevado potencial pró-apoptótico para a linhagem de hepatócitos. Já PCSR08.002, apresentou aumento na apoptose de CHO-K1. A indução de apoptose não é necessariamente um evento negativo, já que é pouco lesiva e responsável pela eliminação de células danificadas. Porém, as respostas de apoptose induzidas por esse composto foram muito inferiores àquelas induzidas pela atorvastatina (cerca de 4 vezes menor que a atorvastatina). PCSR08.002 foi aquele se mostrou menos tóxico e essa amostra foi a que teve menor risco relativo, em uma análise global das respostas de citotoxicidade e não demonstrou ter potencial genotóxico para as linhagens utilizadas nesse estudo. Conclui-se, portanto, que a análise da atividade toxicológica utilizando modelos experimentais in vitro dessas estatinas constitui um importante passo para o estabelecimento de novos candidatos à fármacos com maior segurança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta Dissertação propõe-se a aplicação de algoritmos genéticos para a síntese de filtros para modular sinais de controladores a estrutura variável e modo deslizante. A modulação do sinal de controle reduz a amplitude do sinal de saída e, consequentemente, pode reduzir o consumo de energia para realizar o controle e o chattering. Esses filtros também são aplicados em sistemas que possuem incertezas paramétricas nos quais nem todas as variáveis de estado são medidas. Nesses sistemas, as incertezas nos parâmetros podem impedir que seus estados sejam estimados com precisão por observadores. A síntese desses filtros necessita da obtenção da envoltória, que é o valor máximo da norma de cada resposta impulsiva admissível no sistema. Após este passo, é sintetizado um filtro que seja um majorante para a envoltória. Neste estudo, três métodos de busca da envoltória por algoritmos genéticos foram criados. Um dos métodos é o preferido, pois apresentou os melhores resultados e o menor tempo computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária