14 resultados para Análise de redes sociai
em Biblioteca de Teses e Dissertações da USP
Resumo:
Esta dissertação tem por propósito analisar os impactos da geração distribuída sobre as correntes de curto-circuito e sobre a proteção das redes de média tensão das concessionárias de distribuição de energia elétrica usando uma abordagem paramétrica. A principal motivação deste trabalho são os recentes incentivos regulatórios que estão fomentando a geração distribuída no Brasil. Contudo, as redes de distribuição convencionais foram projetadas para serem passivas e a introdução da geração poderá causar problemas de ordem técnica que ainda precisam ser resolvidos. Tais problemas foram pesquisados e aqueles relacionados com os impactos sobre as correntes de curto-circuito foram enfatizados. As normas técnicas das concessionárias também foram investigadas porque seus requisitos, como a ligação dos transformadores de acoplamento, influem nas correntes de curto-circuito. Para se calcular as correntes de curto-circuito, desenvolveu-se uma planilha eletrônica cujos resultados foram validados com programas comerciais de análise de redes elétricas. Esta ferramenta foi utilizada para demonstrar, através de exemplos, o impacto causado pela geração distribuída sobre as correntes de curto-circuito e, posteriormente, para realizar as análises paramétricas nas quais a influência de cada variável foi avaliada. A aplicação do método paramétrico permitiu o estudo de possíveis limites para a potência de um gerador distribuído em função dos impactos admissíveis, de seu ponto de conexão, de seus parâmetros elétricos e dos parâmetros elétricos da rede.
Resumo:
Com o escopo de fornecer subsídios para compreender como o processo de colaboração científica ocorre e se desenvolve em uma instituição de pesquisas, particularmente o IPEN, o trabalho utilizou duas abordagens metodológicas. A primeira utilizou a técnica de análise de redes sociais (ARS) para mapear as redes de colaboração científica em P&D do IPEN. Os dados utilizados na ARS foram extraídos da base de dados digitais de publicações técnico-científicas do IPEN, com o auxílio de um programa computacional, e basearam-se em coautoria compreendendo o período de 2001 a 2010. Esses dados foram agrupados em intervalos consecutivos de dois anos gerando cinco redes bienais. Essa primeira abordagem revelou várias características estruturais relacionadas às redes de colaboração, destacando-se os autores mais proeminentes, distribuição dos componentes, densidade, boundary spanners e aspectos relacionados à distância e agrupamento para definir um estado de redes mundo pequeno (small world). A segunda utilizou o método dos mínimos quadrados parciais, uma variante da técnica de modelagem por equações estruturais, para avaliar e testar um modelo conceitual, apoiado em fatores pessoais, sociais, culturais e circunstanciais, para identificar aqueles que melhor explicam a propensão de um autor do IPEN em estabelecer vínculos de colaboração em ambientes de P&D. A partir do modelo consolidado, avaliou-se o quanto ele explica a posição estrutural que um autor ocupa na rede com base em indicadores de ARS. Nesta segunda parte, os dados foram coletados por meio de uma pesquisa de levantamento com a utilização de um questionário. Os resultados mostraram que o modelo explica aproximadamente 41% da propensão de um autor do IPEN em colaborar com outros autores e em relação à posição estrutural de um autor na rede o poder de explicação variou entre 3% e 3,6%. Outros resultados mostraram que a colaboração entre autores do IPEN tem uma correlação positiva com intensidade moderada com a produtividade, da mesma forma que, os autores mais centrais na rede tendem a ampliar a sua visibilidade. Por fim, vários outros indicadores estatísticos bibliométricos referentes à rede de colaboração em P&D do IPEN foram determinados e revelados, como, a média de autores por publicação, média de publicações por autores do IPEN, total de publicações, total de autores e não autores do IPEN, entre outros. Com isso, esse trabalho fornece uma contribuição teórica e empírica aos estudos relacionados à colaboração científica e ao processo de transferência e preservação de conhecimento, assim como, vários subsídios que contribuem para o contexto de tomada de decisão em ambientes de P&D.
Resumo:
Introdução: Estatísticas sobre a ocorrência de casos novos de câncer são fundamentais para o planejamento e monitoramento das ações de controle da doença. No estado de São Paulo, a incidência de câncer é obtida indiretamente por meio de estimativas oficiais (para o estado como um todo e sua capital) e, de forma direta, em municípios cobertos por Registro de Câncer de Base Populacional (RCBP). Existem, atualmente, três RCBP ativos (São Paulo, Jaú e Santos), um inativo (Barretos) e um em reimplantação (Campinas). Dado o desconhecimento do panorama da incidência de câncer em áreas não cobertas por RCBP, este estudo teve como objetivo estimar a incidência de câncer, calcular taxas brutas e padronizadas por idade, específicas por sexo e localização primária do tumor para as 17 Redes Regionais de Atenção à Saúde (RRAS) de São Paulo e municípios, em 2010. Método: Utilizou-se como estimador da incidência de câncer a razão Incidência/Mortalidade (I/M), por sexo, grupo etário quinquenal dos 0 aos 80 anos e localização primária do tumor. O numerador da razão foi formado pelo número agregado de casos novos entre 2006-2010, em dois RCBP ativos (Jaú e São Paulo, respectivamente, com cobertura correspondente a 0,3 por cento e 27,3 por cento da população estadual). No denominador, o número de óbitos oficial nas respectivas áreas e período. O número estimado de casos novos resultou da multiplicação das I/M pelo número de óbitos por câncer registrados em 2010 para o conjunto de municípios formadores de cada uma das RRAS ou para cada município. O método de referência foi aquele utilizado no Globocan series, da Agência Internacional de Pesquisa contra o Câncer. O ajuste por idade das taxas de incidência ocorreu pelo método direto, tendo como padrão a população mundial. Resultados: Estimaram-se 53.476 casos novos de câncer para o sexo masculino e 55.073 casos para o feminino (excluindo-se os casos de câncer de pele não melanoma), com taxas padronizadas de 261/100.000 e 217/100.000, respectivamente. No sexo masculino, a RRAS 6 apresentou para todos os cânceres a maior taxa de incidência padronizada (285/100.000), e a RRAS 10, a menor (207/100.000). Os cânceres mais incidentes em homens foram próstata (77/100.000), cólon/reto/anus (27/100.000) e traqueia/brônquio/pulmão (16/100.000). Entre as mulheres, as taxas de incidência padronizadas por idade foram de 170/100.000 (RRAS 11) a 252/100.000 (RRAS 07); o câncer de mama foi o mais incidente (58/100.000), seguido pelos tumores de cólon/reto/anus (23/100.000) e de colo uterino (9/100.000). Conclusões: Os resultados apontaram diferentes padrões de incidência com taxas que ultrapassaram a magnitude estadual. Dados provenientes de RCBP locais podem ser usados na obtenção indireta de estimativas regionais e locais. Neste estudo, as taxas de incidência apresentadas podem estar sub ou superestimadas refletindo a qualidade, completitude e padrões observados no RCBP de maior representatividade considerado na análise.
Resumo:
O objetivo deste trabalho foi analisar o desempenho da cadeia de carne bovina na Venezuela sob o efeito de políticas de intervenção estatal principalmente nas últimas décadas. Para tanto, foi empregada a abordagem teórica do enfoque sistêmico em conjunto com metodologia que se apoiou em um modelo econométrico para explicar o efeito de variáveis tecnológicas e macroeconômicas no agronegócio vis a vis a resultante da produção doméstica de carne bovina nas últimas décadas. Os resultados mostram que, no marco de mudanças institucionais estabelecidas desde a década de 1980 e especialmente as intervenções governamentais vigentes a partir do ano de 2003, a cadeia de carne bovina da Venezuela apresenta um desempenho negocial preocupante e não sustentável. Na última década, a Venezuela decresceu seu inventário bovino a uma taxa média anual de 2,56% entre 2003 e 2014. O número de cabeças/habitante diminuiu a uma taxa anual de 1,30% entre 1960 e 2014, ficando em 0,38 cabeças/habitante. O número de cabeças abatidas sobre o total do rebanho (taxa de desfrute geral do rebanho) foi de 10,82% para o ano de 2014, inferior à média de países vizinhos como Colômbia e Brasil que ficaram em 20,85% e 19,42% respectivamente. A produção doméstica de carne bovina decresceu a uma taxa anual de 2,22% entre 1997 e 2014 (mesmo considerando o abate de bovinos importados). A quantidade de carne oriunda de animais importados cresceu até alcançar um máximo de 58,51% do abate nacional, em 2013. Isto significou um decréscimo real da produção endógena de 71,55% entre os anos de 1997 e 2013. Neste contexto, a produção nacional percapita diminuiu de 18,31 kg/habitante (em 1997) para um mínimo de 3,97 kg/habitante (em 2013). Para o atendimento da demanda doméstica passou-se a contar, crescentemente, com importações de carne in natura que cresceram em volume inicial de 0,59 mil toneladas (t) de equivalente carcaça (em 1997) para um máximo de 307,57 mil t em 2008. A taxa de penetração das importações de carne bovina equivalente (carne e bovinos em pé) resultou em 79,54% do atendimento da demanda doméstica em 2013 (cerca de 15,45 kg/habitante/ano). Neste contexto, as intervenções mais relevantes têm sido a Lei de Terras que propiciou um ambiente de insegurança jurídica; os controles de preços e a política cambial que criaram distorções no mercado; e, a crescente influência nas redes de distribuição de alimentos, com forte dependência do comércio exterior, alavancado com os incrementos no preço internacional do petróleo entre 2003 e 2014. Tudo isto tem resultado em um cenário de desmonte da produção interna da carne bovina, que pode ser visualizado em episódios crescentes de escassez deste produto no mercado interno. Ao final, são sugeridas algumas práticas de políticas pública e setoriais para a reversão desse quadro insustentável para esta importante cadeia de negócios da Venezuela.
Resumo:
Estudamos transições de fases quânticas em gases bosônicos ultrafrios aprisionados em redes óticas. A física desses sistemas é capturada por um modelo do tipo Bose-Hubbard que, no caso de um sistema sem desordem, em que os átomos têm interação de curto alcance e o tunelamento é apenas entre sítios primeiros vizinhos, prevê a transição de fases quântica superfluido-isolante de Mott (SF-MI) quando a profundidade do potencial da rede ótica é variado. Num primeiro estudo, verificamos como o diagrama de fases dessa transição muda quando passamos de uma rede quadrada para uma hexagonal. Num segundo, investigamos como a desordem modifica essa transição. No estudo com rede hexagonal, apresentamos o diagrama de fases da transição SF-MI e uma estimativa para o ponto crítico do primeiro lobo de Mott. Esses resultados foram obtidos usando o algoritmo de Monte Carlo quântico denominado Worm. Comparamos nossos resultados com os obtidos a partir de uma aproximação de campo médio e com os de um sistema com uma rede ótica quadrada. Ao introduzir desordem no sistema, uma nova fase emerge no diagrama de fases do estado fundamental intermediando a fase superfluida e a isolante de Mott. Essa nova fase é conhecida como vidro de Bose (BG) e a transição de fases quântica SF-BG que ocorre nesse sistema gerou muitas controvérsias desde seus primeiros estudos iniciados no fim dos anos 80. Apesar dos avanços em direção ao entendimento completo desta transição, a caracterização básica das suas propriedades críticas ainda é debatida. O que motivou nosso estudo, foi a publicação de resultados experimentais e numéricos em sistemas tridimensionais [Yu et al. Nature 489, 379 (2012), Yu et al. PRB 86, 134421 (2012)] que violam a lei de escala $\\phi= u z$, em que $\\phi$ é o expoente da temperatura crítica, $z$ é o expoente crítico dinâmico e $ u$ é o expoente do comprimento de correlação. Abordamos essa controvérsia numericamente fazendo uma análise de escalonamento finito usando o algoritmo Worm nas suas versões quântica e clássica. Nossos resultados demonstram que trabalhos anteriores sobre a dependência da temperatura de transição superfluido-líquido normal com o potencial químico (ou campo magnético, em sistemas de spin), $T_c \\propto (\\mu-\\mu_c)^\\phi$, estavam equivocados na interpretação de um comportamento transiente na aproximação da região crítica genuína. Quando os parâmetros do modelo são modificados de maneira a ampliar a região crítica quântica, simulações com ambos os modelos clássico e quântico revelam que a lei de escala $\\phi= u z$ [com $\\phi=2.7(2)$, $z=3$ e $ u = 0.88(5)$] é válida. Também estimamos o expoente crítico do parâmetro de ordem, encontrando $\\beta=1.5(2)$.
Resumo:
Os recursos energéticos naturais não estão distribuídos uniformemente pelo globo terrestre, e são raros os países que os têm na quantidade e na qualidade que necessitam para atender as suas necessidades. Ante a essa realidade, o comércio de energéticos tem sido a forma principal de acesso dos países que não os dispõem em relação as suas necessidades. Esse comércio, que muitas vezes é regido por tratados ou acordos firmados entre países ou blocos econômicos regionais, diversificou-se, traspassou fronteiras e, atualmente, tornou-se um item significativo nas pautas de exportações de vários países. A evolução desse comércio tem a favor a alternativa de integração por meio de interconexões estratégicas de redes e da constituição de mercados comuns, que viabilizam a exploração do potencial de complementariedade energética de forma mais racional. Diante desse contexto, esta dissertação apresenta um estudo exploratório que avalia o estado da arte da integração energética sul-americana e faz análises dos modelos técnicos, das regulamentações, das regulações regionais e multilaterais estabelecidas pelos blocos econômicos sul-americanos e pela Organização Mundial do Comércio. De forma complementar, o estudo verifica e apresenta os fatores que podem comprometer o avanço e a instituição de um futuro mercado comum de energia no continente, conclui pela viabilidade do prosseguimento de ações em prol da ampliação da integração da indústria de energia elétrica na América do Sul e tece recomendações. Os resultados e as recomendações deste trabalho oferecem um embasamento procedimental para a gestão e a atuação institucional dos envolvidos no processo de integração energética da indústria de energia elétrica da região sul americana.
Resumo:
O Gás Natural Liquefeito (GNL) tem, aos poucos, se tornado uma importante opção para a diversificação da matriz energética brasileira. Os navios metaneiros são os responsáveis pelo transporte do GNL desde as plantas de liquefação até as de regaseificação. Dada a importância, bem como a periculosidade, das operações de transporte e de carga e descarga de navios metaneiros, torna-se necessário não só um bom plano de manutenção como também um sistema de detecção de falhas que podem ocorrer durante estes processos. Este trabalho apresenta um método de diagnose de falhas para a operação de carga e descarga de navios transportadores de GNL através da utilização de Redes Bayesianas em conjunto com técnicas de análise de confiabilidade, como a Análise de Modos e Efeitos de Falhas (FMEA) e a Análise de Árvores de Falhas (FTA). O método proposto indica, através da leitura de sensores presentes no sistema de carga e descarga, quais os componentes que mais provavelmente estão em falha. O método fornece uma abordagem bem estruturada para a construção das Redes Bayesianas utilizadas na diagnose de falhas do sistema.
Resumo:
Em um cenário de aumento de competitividade, crescente expectativa por inovações do produto e necessidade de atender diferentes perfis de consumidores, o conceito de gerenciamento de cadeias de suprimentos globais (GSCM) surge como uma estratégia para coordenar mais eficazmente as atividades dispersas geograficamente dos sistemas produtivos. Na adoção do GSCM, as organizações devem lidar com rupturas que impactam no gerenciamento das suas atividades, tais como a interrupção de vias de transporte, pane no fornecimento de energia, desastres naturais e até ataques terroristas. Nesse contexto, o trabalho introduz um procedimento sistematizado para modelagem das cadeias de suprimentos visto como um sistema a eventos discretos e sua análise por simulação das atividades do GSCM baseada em técnicas formais como a rede de Petri (PN) e o Production Flow Schema (PFS). Um exemplo é também apresentado para ilustrar e comprovar as vantagens do método proposto na análise do GSCM.
Resumo:
A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.
Resumo:
As redes atuais de telecomunicações utilizam tecnologias de comutação de pacotes para integração de voz, dados, imagens e outros serviços. O tráfego nessas redes costuma ser feito por meio de tecnologias como o MPLS-TP e com regras heurísticas para a determinação dos melhores caminhos. O uso de boas regras afeta diretamente o desempenho e a segurança da operação. Este trabalho propõe o uso de simulação de baixo custo para prever o comportamento e avaliar regras de escolha de caminhos. Para isso, este trabalho avalia três métodos de seleção de caminhos de LSPs, combinados com duas heurísticas de recuperação, usados em redes MPLS-TP em malha com mecanismos de proteção em malha compartilhada. Os resultados das simulações medem o impacto dos métodos e heurísticas utilizados, demonstrando o quanto uma melhor seleção de caminhos pode contribuir para a redução do uso dos recursos da rede e do número máximo de LSPs afetados em caso de falhas na rede. Os resultados deste trabalho, bem como a técnica de análise proposta, almejam ser uma contribuição para a padronização de regras de seleção de LSPs em redes heterogêneas.
Resumo:
Este trabalho propõe dois métodos para teste de sistemas de software: o primeiro extrai ideias de teste de um modelo desenvolvido em rede de Petri hierárquica e o segundo valida os resultados após a realização dos testes utilizando um modelo em OWL-S. Estes processos aumentam a qualidade do sistema desenvolvido ao reduzir o risco de uma cobertura insuficiente ou teste incompleto de uma funcionalidade. A primeira técnica apresentada consiste de cinco etapas: i) avaliação do sistema e identificação dos módulos e entidades separáveis, ii) levantamento dos estados e transições, iii) modelagem do sistema (bottom-up), iv) validação do modelo criado avaliando o fluxo de cada funcionalidade e v) extração dos casos de teste usando uma das três coberturas de teste apresentada. O segundo método deve ser aplicado após a realização dos testes e possui cinco passos: i) primeiro constrói-se um modelo em OWL (Web Ontology Language) do sistema contendo todas as informações significativas sobre as regras de negócio da aplicação, identificando as classes, propriedades e axiomas que o regem; ii) em seguida o status inicial antes da execução é representado no modelo através da inserção das instâncias (indivíduos) presentes; iii) após a execução dos casos de testes, a situação do modelo deve ser atualizada inserindo (sem apagar as instâncias já existentes) as instâncias que representam a nova situação da aplicação; iv) próximo passo consiste em utilizar um reasoner para fazer as inferências do modelo OWL verificando se o modelo mantém a consistência, ou seja, se não existem erros na aplicação; v) finalmente, as instâncias do status inicial são comparadas com as instâncias do status final, verificando se os elementos foram alterados, criados ou apagados corretamente. O processo proposto é indicado principalmente para testes funcionais de caixa-preta, mas pode ser facilmente adaptado para testes em caixa branca. Obtiveram-se casos de testes semelhantes aos que seriam obtidos em uma análise manual mantendo a mesma cobertura do sistema. A validação provou-se condizente com os resultados esperados, bem como o modelo ontológico mostrouse bem fácil e intuitivo para aplicar manutenções.
Resumo:
É importante que as redes elétricas tenham altos índices de confiabilidade, de forma a se manter a agilidade e a manutenção ideais para um melhor funcionamento. Por outro lado, o crescimento inesperado da carga, falhas em equipamentos e uma parametrização inadequada das funções de proteção tornam a análise de eventos de proteção mais complexas e demoradas. Além disso, a quantidade de informações que pode ser obtida de relés digitais modernos tem crescido constantemente. Para que seja possível uma rápida tomada de decisão e manutenção, esse projeto de pesquisa teve como objetivo a implementação de um sistema completo de diagnóstico que é ativado automaticamente quando um evento de proteção ocorrer. As informações a serem analisadas são obtidas de uma base de dados e de relés de proteção, via protocolo de comunicação IEC 61850 e arquivos de oscilografia. O trabalho aborda o sistema Smart Grid completo incluindo: a aquisição de dados nos relés, detalhando o sistema de comunicação desenvolvido através de um software com um cliente IEC61850 e um servidor OPC e um software com um cliente OPC, que é ativado por eventos configurados para dispará-lo (por exemplo, atuação da proteção); o sistema de pré-tratamento de dados, onde os dados provenientes dos relés e equipamentos de proteção são filtrados, pré-processados e formatados; e o sistema de diagnóstico. Um banco de dados central mantém atualizados os dados de todas essas etapas. O sistema de diagnóstico utiliza algoritmos convencionais e técnicas de inteligência artificial, em particular, um sistema especialista. O sistema especialista foi desenvolvido para lidar com diferentes conjuntos de dados de entrada e com uma possível falta de dados, sempre garantindo a entrega de diagnósticos. Foram realizados testes e simulações para curtos-circuitos (trifásico, dupla-fase, dupla-fase-terra e fase-terra) em alimentadores, transformadores e barras de uma subestação. Esses testes incluíram diferentes estados do sistema de proteção (funcionamento correto e impróprio). O sistema se mostrou totalmente eficaz tanto no caso de disponibilidade completa quanto parcial de informações, sempre fornecendo um diagnóstico do curto-circuito e analisando o funcionamento das funções de proteção da subestação. Dessa forma, possibilita-se uma manutenção muito mais eficiente pelas concessionárias de energia, principalmente no que diz respeito à prevenção de defeitos em equipamentos, rápida resposta a problemas, e necessidade de reparametrização das funções de proteção. O sistema foi instalado com sucesso em uma subestação de distribuição da Companhia Paulista de Força e Luz.
Resumo:
O paradigma das redes em chip (NoCs) surgiu a fim de permitir alto grau de integração entre vários núcleos de sistemas em chip (SoCs), cuja comunicação é tradicionalmente baseada em barramentos. As NoCs são definidas como uma estrutura de switches e canais ponto a ponto que interconectam núcleos de propriedades intelectuais (IPs) de um SoC, provendo uma plataforma de comunicação entre os mesmos. As redes em chip sem fio (WiNoCs) são uma abordagem evolucionária do conceito de rede em chip (NoC), a qual possibilita a adoção dos mecanismos de roteamento das NoCs com o uso de tecnologias sem fio, propondo a otimização dos fluxos de tráfego, a redução de conectores e a atuação em conjunto com as NoCs tradicionais, reduzindo a carga nos barramentos. O uso do roteamento dinâmico dentro das redes em chip sem fio permite o desligamento seletivo de partes do hardware, o que reduz a energia consumida. Contudo, a escolha de onde empregar um link sem fio em uma NoC é uma tarefa complexa, dado que os nós são pontes de tráfego os quais não podem ser desligados sem potencialmente quebrar uma rota preestabelecida. Além de fornecer uma visão sobre as arquiteturas de NoCs e do estado da arte do paradigma emergente de WiNoC, este trabalho também propõe um método de avaliação baseado no já consolidado simulador ns-2, cujo objetivo é testar cenários híbridos de NoC e WiNoC. A partir desta abordagem é possível avaliar diferentes parâmetros das WiNoCs associados a aspectos de roteamento, aplicação e número de nós envolvidos em redes hierárquicas. Por meio da análise de tais simulações também é possível investigar qual estratégia de roteamento é mais recomendada para um determinado cenário de utilização, o que é relevante ao se escolher a disposição espacial dos nós em uma NoC. Os experimentos realizados são o estudo da dinâmica de funcionamento dos protocolos ad hoc de roteamento sem fio em uma topologia hierárquica de WiNoC, seguido da análise de tamanho da rede e dos padrões de tráfego na WiNoC.
Resumo:
Localizar objetos ou pessoas no interior de um edifício é de grande interesse. Contudo, diferentemente do que ocorre no exterior de edificações, não há metodologia consagrada para a determinação da posição desses entes nos edifícios. Para o posicionamento em locais abertos existem tecnologias consolidadas, como GNSS (Global Navigation Satellite System), a dificuldade em fazê-lo em interiores é maior. Nesses casos, o GNSS não pode ser utilizado, pois os sinais de rádio dos satélites não conseguem penetrar através das estruturas, enquanto que outras tecnologias são apenas incipientes nesse quesito. Abordagens habituais para a resolução dessa demanda têm se baseado na utilização de propagadores das ondas de rádio do GNSS, no uso da potência de sinais de redes sem fio ou, ainda, no emprego de transmissores infravermelhos. No entanto, uma técnica diferente pode ser empreendida para essa finalidade. Usando-se a assinatura das potências de rádio das redes sem fio nas imediações e no interior da edificação, é possível criar um mapa com base nesses sinais, permitindo a determinação da posição de um objeto. No presente trabalho foram desenvolvidos um sistema para geração do mapa de sinais, com critério de parada e um método de cálculo de posicionamento. Procedeu-se, também, à análise de quatro critérios para o cálculo final da posição do objeto, baseados no uso da distância euclidiana com os conjuntos de roteadores disponíveis. Concluiu-se que, quando o mapa de sinais é pequeno, o posicionamento fracassou. Entretanto, quando a quantidade de sinais geradores do mapa aumenta, os resultados apresentaram melhora significativa, com resultados próximos a 100% de assertividade. Desse modo foi possível determinar uma estimativa boa para o número mínimo de roteadores presentes na base e estabelecer um critério de parada para a fase de criação do mapa de sinais.