875 resultados para Aplicações diferenciaveis


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A avaliação objetiva da qualidade de imagens é de especial importância em diversas aplicações, por exemplo na compressão de imagens, onde pode ser utilizada para regular a taxa que deve ser empregada para que haja a máxima compressão (permitindo perda de dados) sem comprometer a qualidade final; outro exemplo é na inserção de marcas dágua, isto é, introdução de informações descritivas utilizadas para atestar a autenticidade de uma imagem, que devem ser invisíveis para o observador. O SSIM (Structural SIMilarity) é uma métrica de avaliação objetiva da qualidade de imagens de referência completa projetada para imagens em tons de cinza. Esta dissertação investiga sua aplicação na avaliação de imagens coloridas. Para tanto, inicialmente é feito um estudo do SSIM utilizando quatro diferentes espaços de cores RGB, YCbCr, Lαβ e CIELAB. O SSIM é primeiramente calculado nos canais individuais desses espaços de cores. Em seguida, com inspiração no trabalho desenvolvido em (1) são testadas formas de se combinar os valores SSIM obtidos para cada canal em um valor único os chamados SSIM Compostos. Finalmente, a fim de buscar melhores correlações entre SSIM e avaliação subjetiva, propomos a utilização da mínima diferença de cor perceptível, calculada utilizando o espaço de cores CIELAB, conjuntamente com o SSIM. Para os testes são utilizados três bancos de dados de imagens coloridas, LIVE, IVC e TID, a fim de se conferir consistência aos resultados. A avaliação dos resultados é feita utilizando as métricas empregadas pelo VQEG (Video Quality Experts Group) para a avaliação da qualidade de vídeos, com uma adaptação. As conclusões do trabalho sugerem que os melhores resultados para avaliação da qualidade de imagens coloridas usando o SSIM são obtidas usando os canais de luminância dos espaços de cores YCbCr, Lαβ e especialmente o CIELAB. Também se concluiu que a utilização da mínima diferença de cor perceptível contribui para o melhoramento dos resultados da avaliação objetiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Turbomáquinas são máquinas operacionais que transferem energia mecânica entre um rotor e um fluido. Estas máquinas têm muitas aplicações industriais. Um dos componentes de uma turbomáquina responsável pela transferência da energia, ou receber a rotação do eixo e transformar em energia de fluido em caso de bomba ou transferir a energia do fluido para o eixo em caso de uma turbina, é o impelidor ou rotor. O fenómeno da cavitação envolve escoamento bifásico: o líquido a ser bombeado e as bolhas de vapor que são formadas durante o processo de bombeamento. O processo de formação dessas bolhas é complexo, mas ocorre principalmente devido a presença de regiões de pressões muito baixas. O colapso dessas bolhas pode muitas vezes levar a deterioração do material, dependendo da intensidade ou da velocidade de colapso das bolhas. O principal objetivo deste trabalho foi estudar o comportamento hidrodinâmico do escoamento nos canais do impelidor de uma turbomáquina do tipo radial usando recursos de fluidodinâmica computacional (CFD). Uma abordagem Euler-Lagrange acoplada com o modelo da equação de Langevin foi empregada para estimar a trajetória das bolhas. Resultados das simulações mostram as particularidades de um escoamento líquido-bolha de vapor passando em um canal de geometria curva, fornecendo assim informações que podem nos ajudar na prevenção da cavitação nessas máquinas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aço inoxidável hiperduplex possui alta resistência a corrosão por pite em ambientes contendo cloretos, quando comparado a outros aços inoxidáveis comercialmente conhecidos. Possui boas propriedades mecânicas, com limite de escoamento superior a 700MPa e limite de resistência a tração em torno de 1000MPa. Essas propriedades o tornam muito atrativos para aplicações em ambientes contendo cloretos, e por isso tem tido destaque na indústria de óleo e gás, refinarias, plataformas offshore, etc. A liga hiperduplex é composta por uma estrutura bifásica, contendo proporções aproximadamente iguais de ferrita e austenita. Esse material possui boa soldabilidade, mas por ser termodinamicamente metaestável, em altas temperaturas pode ocorrer a precipitação de fases intermetálicas não desejáveis, o que resulta em perda de propriedades mecânicas e diminuição da resistência a corrosão. A fase sigma tem sido fortemente estudada, pois é comum sua precipitação nos aços inoxidáveis da família duplex durante o procedimento de soldagem se este não for muito bem controlado. A fase sigma precipita preferencialmente na fase ferrítica, devido a maior concentração de Cr e Mo, que são os elementos formadores da fase. A resistência a corrosão é reduzida e as propriedades mecânicas do material são alteradas o tornando frágil devido a presença da fase sigma. É formada entre 600C e 1000C e possui uma estrutura tetragonal complexa. O objetivo do trabalho foi identificar a possível presença da fase sigma na junta soldada do aço inoxidável hiperduplex SAF 2707 HD (UNS S32707) pelo processo TIG autógeno manual através da difração de raios-x. Nessa pesquisa, foram analisadas uma junta soldada do material pelo processo TIG autógeno manual com arco pulsado. Complementando o estudo foram analisadas seis amostras do aço inoxidável superduplex, sendo que cinco amostras sofreram tratamento térmico para a proposital formação da fase sigma. O refinamento do resultado da difração das amostras foi feito utilizando o método de Rietveld no software Topas Academic versão 4.1. O resultado da amostra soldada de hiperduplex apresentou as fases austenita, ferrita e alguns prováveis óxidos. Os resultados das amostras de superduplex tratadas termicamente apresentaram a fase sigma, conforme esperado na pesquisa, e as fases austenita e ferrita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Quebra Espontânea de Simetria (QES) tem sido discutida em muitos cenários, tendo resultados importantes na física Teórica de Partículas, sendo motivo de extensa pesquisa e com variadas aplicações. Neste trabalho, será apresentado um modelo alternativo baseado na Ação de Fujikawa usando quartetos BRST. No primeiro capítulo, todo o ferramental para a análise da QES é discutido partindo da definição em nível clássico e por fim no regime quântico, usando o conceito de ação efetiva. A técnica de quantização de campos de calibre no U(1), presente no eletromagnetismo, foi abordada, usando o cálculo dos propagadores e seus respectivos diagramas de Feynman. Foi estudado em conjunto com esse assunto, o conceito de campos fantasmas de Fadeev-Popov e Simetria-BRST. O mecanismo de Higgs é explorado em nível quântico, sendo feita um estudo dos rearranjos dos graus de liberdade do sistema. No segundo capítulo, as propriedades dos quartetos-BRST são estudadas, bem como suas considerações sobre simetria, quando aplicadas na ação de Fujikawa usando dois cenários: (i) quando a simetria não é quebrada. (ii) A simetria é quebrada. E por fim é feita uma análise sobre os graus de liberdade do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas formas de geração de energia vêm sendo desenvolvidas com o objetivo de oferecer alternativas ecologicamente corretas. Neste contexto, a energia eólica vem se destacando na região Nordeste do Brasil, devido ao grande potencial dos ventos da região. As torres, que representam parcela significativa do custo total do sistema, tendem a crescer buscando ventos mais fortes e permitindo assim a utilização de aerogeradores com maior capacidade de geração de energia. Este trabalho tem como objetivo formular um modelo de otimização de torres tubulares de aço, para aerogeradores eólicos. Busca-se minimizar o volume total (custo, indiretamente), tendo como variáveis de projeto as espessuras da parede da torre. São impostas restrições relativas à frequência natural e ao comportamento estrutural (tensão e deslocamento máximo de acordo com recomendações da norma Europeia). A estrutura da torre é modelada com base no Método dos Elementos Finitos e o carregamento atuante na estrutura inclui os pesos da torre, do conjunto de equipamentos instalados no topo (aerogerador), e o efeito estático da ação do vento sobre a torre. Para verificação das tensões, deslocamentos e frequências naturais, foram utilizados elementos finitos de casca disponíveis na biblioteca do programa de análise ANSYS. Os modelos de otimização foram também implementados no modulo de otimização do programa ANSYS (design optimization), que utiliza técnicas matemáticas em um processo iterativo computadorizado até que um projeto considerado ótimo seja alcançado. Nas aplicações foram usados os métodos de aproximação por subproblemas e o método de primeira ordem. Os resultados obtidos revelam que torres para aerogeradores merecem atenção especial, em relação à concepção do projeto estrutural, sendo que seu desempenho deve ser verificado através de metodologias completas que englobem além das análises clássicas (estáticas e dinâmicas), incluam também as análises de otimização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em um contexto de demandas sociais tendencialmente crescentes, uma das alternativas para o aumento da arrecadação de receitas pelo Estado reside no manejo de aplicações financeiras. Os investimentos financeiros estatais, a rigor, já acontecem, mas nem sempre o objetivo claro e explícito de obtenção de resultados financeiramente interessantes e, eventualmente ou mesmo por isso , sob gestão economicamente ineficiente. Às vezes, até se enxerga o foco na obtenção de rendimentos relevantes na ação estatal, mas sem uma disciplina específica, o que pode abrir espaço a uma gestão de ativos desqualificada ou mesmo fraudulenta, com sérios prejuízos aos cofres públicos e, em situações extremas, ampliação ainda maior das despesas públicas. O objetivo desta tese, portanto, é reconhecer que nem sempre o Estado atua na economia com propósito interventivo e que, na qualidade de investidor institucional vale dizer, de ente que tem o dever de proceder aos investimentos e às aplicações financeiras que digam com as melhores práticas de administração dos ativos públicos , precisa atuar sob o jugo de normas jurídicas claras, que permitam ao Estado ampliar suas receitas dentro de limites razoáveis de exposição a risco financeiro e disponibilizem aos órgãos de fiscalização e controle da Administração Pública as ferramentas necessárias para, também quanto a esse aspecto, aferir a eficiência da ação estatal. Para tanto, têm-se como pressupostos o anacronismo da resistência cultural às aplicações financeiras dos entes da Administração Pública e a noção de que quaisquer ferramentas de obtenção de receitas pelo Estado estão sujeitas a algum grau de risco. Com base nas bem-sucedidas experiências nacionais e internacionais, será possível concluir, ao final, que é admissível, do ponto de vista constitucional e legal, a ação do Estado como investidor nos mercados financeiro e de capitais e que é viável a formulação de parâmetros gerais para a disciplina jurídica do Estado investidor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O clareamento dentário tem se tornado um dos procedimentos mais comuns na odontologia, mas esse dado causa preocupações, pois essa técnica apresenta efeitos adversos, como: sensibilidade dentária, alterações das propriedades mecânicas dos tecidos dentários, aumento da rugosidade do esmalte e alteração do conteúdo de cálcio e fósforo do dente, porém todos esses fatores ainda não são totalmente fundamentados da literatura odontológica, principalmente a relação da técnica com a desmineralização dentária. O objetivo do presente estudo foi avaliar o potencial de desmineralização de alguns géis clareadores de uso clínico para dentes vitais, após cinco aplicações em esmalte dental humano, usando a técnica de Fluorescência de Raios X. Foram obtidos 20 dentes anteriores humanos, tendo as suas raízes seccionadas e incluídos em resina epóxi, com auxílio de uma matriz especial. Para análise, os dentes foram divididos em quatro grupos (5 dentes por grupo). Grupo 1: clareamento pelo HP Maxx, peróxido de hidrogênio 35% manipulado e dosado manualmente; grupo 2: clareamento com HP Blue, peróxido de hidrogênio 35% com cálcio, pré-dosado e manipulado com seringa de automistura; grupo 3: clareamento com Ultraboost, peróxido de hidrogênio 38%, pré-dosado e manipulado com seringa de automistura e grupo 4: clareamento com Total Blanc 35, peróxido de hidrogênio 35%, pré-dosado e manipulado com seringa de automistura. Cada dente foi avaliado em 6 sítios antes do clareamento e ao final de cada sessão. Entre as sessões os elementos eram mantidos em água ultrapura. Os géis clareadores também tiveram seu pH analisado a cada 5 minutos durante 60 minutos. Estatisticamente, nenhum dos agentes clareadores alterou significantemente o conteúdo mineral do esmalte dental humano e também não houve diferenças estatísticas entre os grupos. Concluiu-se que, mesmo com as limitações do estudo, os clareadores testados não são capazes de desmineralizar o esmalte dental humano e não diferem estatisticamente entre si.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de sistemas computacionais para armazenamento, tratamento de dados e produção de informação, disseminou-se de maneira crescente nos últimos anos, e neste cenário estão incluídos os Sistemas de Informações Geográficas, os SIGs. A utilização de informação geográfica com acesso por computador é hoje a realidade de ambientes corporativos, entidades governamentais, escolas e residências. Esta dissertação apresenta uma proposta de modelagem de elementos de zoneamento urbano, baseada em uma ontologia de domínio. Ontologias são representadas como classes e atributos de um dado domínio. Na proposta apresentada, estas classes são exportadas para o formato XMI, resguardando as definições de classes, atributos e relacionamentos do domínio analisado e compondo um repositório de classes, permitindo, teoricamente, sua reutilização. Como exemplo da proposta, foi construída uma ontologia do Zoneamento Urbano do município de Macaé-RJ, seguindo a proposta do Plano Diretor Municipal, usando o editor Protégé. A ontologia construída foi exportada para o formato XMI, sendo a seguir criado um diagrama de classes, obtido através da importação das classes pelo software para modelagem de sistemas baseados no paradigma da OO, ArgoUML. Tal importação permite que a ontologia construída fique disponível na forma de um pacote de classes, que pode ser utilizado por aplicações que se baseiem no paradigma da OO para o desenvolvimento de sistemas de informação. Como forma de mostrar a utilização destas classes foi desenvolvido um protótipo utilizando o software ALOV Map, que oferece a visualização destas classes, na Web, como mapas temáticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho está inserido no campo da Geomática e se concentra, mais especificamente, no estudo de métodos para exploração e seleção de rotas em espaços geográficos sem delimitação prévia de vias trafegáveis. As atividades que poderiam se beneficiar de estudos desse tipo estão inseridas em áreas da engenharia, logística e robótica. Buscou-se, com as pesquisas realizadas nesse trabalho, elaborar um modelo computacional capaz de consultar as informações de um terreno, explorar uma grande quantidade de rotas viáveis e selecionar aquelas rotas que oferecessem as melhores condições de trajetória entre dois pontos de um mapa. Foi construído um sistema a partir do modelo computacional proposto para validar sua eficiência e aplicabilidade em diferentes casos de estudo. Para que esse sistema fosse construído, foram combinados conceitos de sistemas baseados em agentes, lógica nebulosa e planejamento de rotas em robótica. As informações de um terreno foram organizadas, consumidas e apresentadas pelo sistema criado, utilizando mapas digitais. Todas as funcionalidades do sistema foram construídas por meio de software livre. Como resultado, esse trabalho de pesquisa disponibiliza um sistema eficiente para o estudo, o planejamento ou a simulação de rotas sobre mapas digitais, a partir de um módulo de inferência nebuloso aplicado à classificação de rotas e um módulo de exploração de rotas baseado em agentes autônomos. A perspectiva para futuras aplicações utilizando o modelo computacional apresentado nesse trabalho é bastante abrangente. Acredita-se que, a partir dos resultados alcançados, esse sistema possa ajudar a reduzir custos e automatizar equipamentos em diversas atividades humanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.