921 resultados para Inteligência competitiva
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.
Resumo:
707 p.
Resumo:
[ES] Este trabajo profundiza en el estudio de los factores que influyen en la competitividad internacional de las nuevas empresas internacionales y, en consecuencia, en su resultado internacional. Aunando las disciplinas del emprendedurismo y del marketing internacional, se trata de remarcar la importancia del conocimiento relacional a través de la influencia de la orientación al mercado de la red en los resultados internacionales logrados por estas empresas en base al efector mediador de las ventajas competitivas. Los resultados obtenidos del contraste de hipótesis, mediante modelos de ecuaciones estructurales y análisis multi-muestra, confirman que la orientación al mercado de la red resulta determinante en la obtención de resultados internacionales superiores por parte de las nuevas empresas. Esta influencia se produce de forma indirecta a partir del efecto mediador de las ventajas competitivas en diferenciación y costes desarrolladas por las mismas. Este estudio extiende la investigación pasada en torno al emprendedurismo internacional, incluyendo nuevas aportaciones propias de la disciplina del marketing respecto a los antecedentes de la competitividad y los resultados de las nuevas empresas internacionales en los mercados exteriores. Además, los resultados obtenidos animan a emprendedores en el contexto internacional a considerar el valor explícito de otros factores distintos al conocimiento experiencial, que la empresa adquiere de forma gradual conforme se incrementa su experiencia en el mercado exterior, para darse cuenta del valor potencial que el conocimiento relacional asociado a la orientación al mercado de la red tiene como antecedente para la consecución de ventajas competitivas en el mercado internacional.
Resumo:
O objetivo desta tese é o de propor uma via de interpretação e significação possível ao problema ético-estético ou ético-poiētico da criação de si a partir da formulação de um conceito de hipocrisia. A partir de um espectro de análises acerca das práticas de engano, compõe-se um cenário inicial na forma de prolegômenos, nos quais se esboça uma distinção entre hipocrisia e autoengano, sob dois registros: formal, com a distinção de perspectivas entre enganar e ser enganado, com base no reconhecimento do engano; e processual, onde a hipocrisia, como incorporação intencional de personagens, distingue-se do autoengano como processo não reconhecido de incorporação de crenças. O primeiro capítulo dedica-se a compreender como as práticas de engano e a hipocrisia vêm a se tornar um problema moral. Remontando o problema aos gregos, abrem-se, para além dessa condenação, vias para uma reavaliação das formas de inteligência astuciosa nomeada por mêtis. No segundo capítulo, procura-se elaborar um conceito de hipocrisia como significação ao problema ético e estético da criação de si. A oposição entre as formas éticas da amizade e da lisonja, tendo em comum a atenção ao kairós, o tempo oportuno, é o mote para se pensar duas formas de discurso: o retórico, comandado pela mêtis, e o filosófico, pautado pela parrēsía; e para se propor uma forma de cuidado de si distinta da que é constituída pelo discurso parrēsiástico e vertida em ḗthos pela áskēsis. Tal seria a criação de si pela atenção aos acasos e instintos e teria como modelo o trabalho de incorporação e manejo artístico próprio à arte do ator. Daí emerge o conceito de hipocrisia como: arte de interpretar um saber da dóxa pela mestria do kairós, e de configurá-lo pela mímēsis de modo a criar a si como autor e obra de si mesmo. No terceiro capítulo, com enfoque interpretativo, toma-se esse conceito de hipocrisia como fio condutor para uma articulação entre três aspectos do pensamento de Nietzsche: i) a compreensão extramoral acerca das práticas de engano, tendo a vontade de aparência como aquilo que lhes subjaz; ii) a perspectiva epistêmica de processos sem sujeito, tendo as noções de máscara e interpretação como mote para se pensar a hipocrisia como um manuseio ou manejo artístico visando à criação de um eu hipócrita; e iii) a proposta ético-estética de criação de si e constituição de um caráter, onde a hipocrisia poderia ser compreendida como uma ética-estética do espírito livre, que pela incessante troca de papéis, cria a si como obra de arte e se torna o que é.
Resumo:
A modernidade caracteriza-se por um período em que ocorreram profundas revoluções em curtos intervalos de tempo. Nela, o mundo analógico foi substituído, gradativamente, pelo digital e o mundo material passou a dividir espaço com a realidade virtual. Inicialmente representada pelo mito prometeico, a modernidade foi tomada pelo impulso fáustico que hoje se traduz no desejo de recriar a condição humana. Os tecnoprofetas da Inteligência Artificial anunciam para breve as maravilhas da pós-humanidade e se ocupam com criação de máquinas espirituais que, acreditam eles, libertarão o homem de sua condição orgânica. Ciente de que a sociedade se organiza em torno da ótica tecnocientífica e de que as inovações alteram significativamente o modo como a maioria dos seres humanos se relaciona com o tempo, com o espaço e com a vida, este estudo discute o modelo de desenvolvimento tecnológico, por entender que ele não mais constitui assunto de domínio exclusivamente técnico, mas, também, de interesse político. Ademais, com vistas a problematizar o que dá sentido à técnica, faz-se uma crítica ao modelo atual, no qual ela, a técnica, subordinada à razão intrumental, funciona como instrumento de alienação e discute as condições necessárias a sua democratização. O estudo começa examinando dois fenômenos considerados determinantes na configuração do cenário atual: o capitalismo cognitivo e a reificação-tecnológica, entendidos como construções monopolizadas pela ótica capital-tecnocientífica. A seguir, faz-se uma análise sobre as noções de técnica, tecnologia e razão técnica e discute-se o impacto do desenvolvimento tecnológico no ato médico. A medicina representa uma atividade de grande valor social para o bem estar humano, embora, nas últimas décadas, venha enfrentando uma quebra no vínculo de confiança entre médicos e pacientes, além de uma crise na identidade desse profissional que hoje enfrenta dificuldades para preservar sua autonomia, face ao mercado das novas tecnologias e estratégias de gestão. Nesse contexto, surgem novas questões a serem elaboradas e a serem respondidas por diferentes atores e áreas de conhecimento da sociedade que desejem contribuir com reflexões e propostas que façam frente aos problemas específicos de nosso tempo. O trabalho sugere, ainda, que noções como Vontade - no sentido arendtiano, ou como o Olhar atento - Josep Esquiról e como Habilidade artesanal - Richard Sennett, podem nos ajudar a compreender as incumbências de uma re-orientação ética, se quisermos construir um diálogo com a razão tecnocientífica em prol da liberdade humana.
Resumo:
Ao longo das últimas décadas as cidades emergiram e se consolidaram no cenário mundial como protagonistas de nosso tempo num processo que envolve a reestruturação produtiva do capitalismo e o paradigma da globalização. As cidades passaram a ser cada vez mais o lócus da modernização do capital, o espaço necessário de sua produção e reprodução. Para legitimar este papel das cidades como novos atores políticos, o empreendedorismo urbano foi elencado enquanto um novo modelo de gestão que tem se difundido por diversas cidades sob o argumento de que apenas uma gestão urbana baseada na eficiência, na flexibilidade e nas parcerias público-privadas seriam capazes de superar a crise urbana e recolocar de forma competitiva as cidades no circuito dos fluxos globais. Entre as cidades que adotaram esta forma de governança urbana está o Rio de Janeiro, que desde os anos 90 através da confecção de um planejamento estratégico, tem buscado sua inserção no processo de modernização capitalista. Para isso tem se utilizado da imagem de cidade olímpica, amistosa e receptiva para os negócios e para o turismo, mas acima de tudo, tem renovado seu espaço urbano por meio de diversos projetos e intervenções pontuais, como o projeto Porto Maravilha, por exemplo. Tendo em vista esta realidade, este trabalho objetiva compreender o empreendedorismo urbano na cidade do Rio de Janeiro enquanto uma estratégia de ação que busca legitimar a parceria do setor público com o setor privado e concretizar um conjunto de políticas voltado para a renovação e valorização urbana pontual e fragmentada. Em vista dos diferentes projetos urbanos que estão sendo desenvolvidos atualmente na cidade, especialmente devido à realização da Copa do Mundo em 2014 e dos Jogos Olímpicos em 2016, o projeto Porto Maravilha foi escolhido como exemplo concreto dessa nova governança urbana por estar baseado nos pressupostos do empresariamento urbano. Para alcançar o objetivo da dissertação, estão sendo utilizadas fontes primárias e secundárias, autores basilares para os conceitos aqui utilizados, publicações recentes sobre a temática e idas à campo na Zona Portuária para acompanhamento do andamento do projeto. Os resultados da análise contida nesta dissertação caminham para a confirmação de que o modelo de empreendedorismo urbano foi adotado pela coalização gestora da cidade para legitimar a reestruturação capitalista do espaço através de um projeto de cidade centrado na parceria público-privada e em políticas públicas que favorecem determinados setores econômicos promovendo uma urbanização fragmentada e seletiva, corroborado pelo exemplo do Porto Maravilha.
Resumo:
Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.
Resumo:
A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
Os Sistemas Multi-Robôs proporcionam vantagens sobre um robô individual, quando da realização de uma tarefa com maiores velocidade, precisão e tolerância a falhas. Os estudos dos comportamentos sociais na natureza têm permitido desenvolver algoritmos bio-inspirados úteis na área da robótica de enxame. Seguindo instruções simples e repetitivas, grupos de robôs, fisicamente limitados, conseguem solucionar problemas complexos. Quando existem duas ou mais tarefas a serem realizadas e o conjunto de robôs é heterogêneo, é possível agrupá-los de acordo com as funcionalidades neles disponíveis. No caso em que o conjunto de robôs é homogêneo, o agrupamento pode ser realizado considerando a posição relativa do robô em relação a uma tarefa ou acrescentando alguma característica distintiva. Nesta dissertação, é proposta uma técnica de clusterização espacial baseada simplesmente na comunicação local de robôs. Por meio de troca de mensagens entre os robôs vizinhos, esta técnica permite formar grupos de robôs espacialmente próximos sem precisar movimentar os robôs. Baseando-se nos métodos de clusterização de fichas, a técnica proposta emprega a noção de fichas virtuais, que são chamadas de cargas, sendo que uma carga pode ser estática ou dinâmica. Se uma carga é estática permite determinar a classe à qual um robô pertence. Dependendo da quantidade e do peso das cargas disponíveis no sistema, os robôs intercambiam informações até alcançar uma disposição homogênea de cargas. Quando as cargas se tornam estacionárias, é calculada uma densidade que permite guiar aquelas que estão ainda em movimento. Durante as experiências, foi observado visualmente que as cargas com maior peso acabam se agrupando primeiro enquanto aquelas com menor peso continuam se deslocando no enxame, até que estas cargas formem faixas de densidades diferenciadas para cada classe, alcançando assim o objetivo final que é a clusterização dos robôs.
Resumo:
Esta dissertação testa e compara dois tipos de modelagem para previsão de uma mesma série temporal. Foi observada uma série temporal de distribuição de energia elétrica e, como estudo de caso, optou-se pela região metropolitana do Estado da Bahia. Foram testadas as combinações de três variáveis exógenas em cada modelo: a quantidade de clientes ligados na rede de distribuição de energia elétrica, a temperatura ambiente e a precipitação de chuvas. O modelo linear de previsão de séries temporais utilizado foi um SARIMAX. A modelagem de inteligência computacional utilizada para a previsão da série temporal foi um sistema de Inferência Fuzzy. Na busca de um melhor desempenho, foram feitos testes de quais variáveis exógenas melhor influenciam no comportamento da energia distribuída em cada modelo. Segundo a avaliação dos testes, o sistema Fuzzy de previsão foi o que obteve o menor erro. Porém dentre os menores erros, os resultados dos testes também indicaram diferentes variáveis exógenas para cada modelo de previsão.
Resumo:
A proposta deste estudo é entender o fenômeno da adolescente em situação de rua através da Teoria das Representações Sociais, buscando a imbricação de relações, funções, tensões, saberes, valores que constroem e transformam as práticas cotidianas familiares para produzir o afastamento do convívio familiar ou prevenir a desafiliação. O objetivo principal é analisar o processo de desafiliação vivido na família e a possibilidade de sua prevenção a partir das representações sociais sobre a adolescente em situação de rua na perspectiva da própria adolescente. Trata-se de pesquisa qualitativa, na qual 21 adolescentes com experiência de viver na rua foram acessadas em um abrigo da rede municipal. Os dados foram produzidos através da entrevista semi-estruturada e analisados à luz da análise temático-categorial de conteúdo com auxílio do software NVivo. Os resultados indicam que a representação social da adolescente em situação de rua para a própria adolescente envolve um circuito que compreende a tradicional imagem do menor carente e abandonado, por suas perdas e ausências que constituem verdadeiros desafios de sobrevivência, para os quais encontram formas de enfrentamento em sua maioria consideradas desviantes, acrescentando a imagem da delinquência e criminalidade. Contudo, as práticas, relações, valores e lógicas estabelecidas, que tornam possível esse modo de viver, dão contorno a uma imagem da adolescente ancorada em atributos positivos como força, alegria, inteligência, afetividade, sagacidade/habilidade/capacidade de aprendizado, sinalizando uma ruptura (ainda que parcial) na tradicional representação da mulher como sexo frágil e submisso. O processo de desafiliação, por sua vez, é gradualmente constituído, de um lado pelos diversos fatores de esgarçamento dos laços familiares, e, de outro lado, pela aproximação e socialização com a rua, sendo fortemente influenciado pelas representações sociais acerca da adolescente em situação de rua (pela familiaridade com as práticas relacionadas com este modo de viver, mas, principalmente, pelos atributos positivos relativos à ideia de liberdade, força, diversão, facilidade, enfrentamento). Conhecer e valorizar a trajetória, crenças e representações de cada família e a estrutura de práticas e relações, situando-a num contexto histórico e cultural parece fundamental para a atuação junto às famílias e às adolescentes. A lógica das políticas públicas voltadas para a família deve considerar a instrumentalização que viabilize a atuação com base nesses parâmetros.
Resumo:
Em O mau humor da TPM: uma interpretação do feminino propomos mostrar como são construídas algumas representações do feminino a partir da sua relação com a menstruação e discutir alguns significados culturais acerca dos transtornos de humor derivado de uma síndrome comumente conhecida como a tensão pré-menstrual. A partir de um recorte teórico do corpo e do olhar médico sobre este enquanto objetos das ciências sociais, isto é, como construções sociais, e tendo como orientação os estudos feministas, analisamos dois tipos de discursos circulantes acerca da menstruação, localizados nas camadas médias cariocas, no início do século XXI, que dizem representar ou dialogar com este corpo hormonal. Estes seguem duas direções diferentes: o primeiro discurso analisado é um livro de um médico, no formato de literatura de auto-ajuda, voltado para a discussão da inteligência hormonal; que pretende ser um modelo de subjetivação do feminino, baseado no olhar médico-científico. Este propõe um controle sobre o corpo, organizando o feminino a partir de idéias essencializadas as quais universalizam os corpos e tratam das descrições desse feminino como pré-determinadas por condições localizadas no corpo Natural. O segundo é um conjunto de entrevistas realizadas com bancárias, que registram o feminino subjetivado. Estes discursos sobre a vivência do feminino, apesar de também articularem descrições corporais enraizadas na biologia e nas ciências médicas, revelam ainda outros significados culturais representativos, destacando assim a importância dos estudos que privilegiam o agenciamento do sujeito na construção social de gênero, no caso desses femininos.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.