81 resultados para COMPUTAÇÃO EVOLUTIVA


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação concentra suas investigações nas contramedidas do direito internacional geral e da Organização Mundial do Comércio (OMC). No âmbito do direito internacional, estudou-se a essência política da sociedade internacional descentralizada, bem como a tendência do processo de fragmentação do direito internacional em direção a regimes mais regulados pelo direito. Além disso, investigou-se a tentativa de ampliação da normatização das contramedidas por meio do Projeto de Artigos sobre Responsabilidade Internacional do Estado de 2001. No âmbito do regime especial da OMC, analisou-se o maior adensamento jurídico das contramedidas como ponto culminante na fase de implementação das decisões no sistema de solução de controvérsias da OMC. Com base na avaliação sobre a necessidade de reforma do instituto das contramedidas da OMC, foram pesquisadas as principais propostas para sua modificação, buscando-se identificar a tentativa de redução do espaço político. A hipótese deste trabalho partiu da afirmação sobre a existência de uma tendência evolutiva no direito internacional geral e na OMC no que tange ao aumento da juridicidade do instituto das contramedidas. Entretanto, essa hipótese confirmou-se apenas parcialmente, pois a tentativa de aprimorar a regulamentação jurídica do instituto das contramedidas ocorre em meio à permanência de elementos políticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vidas Secas, de Graciliano Ramos é considerada uma obra prima da ficção regional da Literatura Brasileira da Geração de 30. O romance é um documento sobre a vida miserável de uma família de retirantes nordestinos, que sofrem as consequências da seca no sertão. O estudo do vocabulário que permeia a trajetória dessa família gerou as bases para elaboração deste trabalho que tem como objetivo principal a formação de um glossário de termos regionais nordestinos presentes na obra em estudo, a fim de contribuir com um dicionário da ficção do referido autor. Para isso, faz-se necessário discorrer sobre a linguagem literária no Brasil a partir do Romantismo até o Modernismo. Expor a curva evolutiva da tradição regionalista brasileira, na ficção, do Romantismo até o Modernismo, enfatizando autores e obras que participaram do processo de criação e evolução do gênero em foco

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe uma nova métrica denominada AP (Alternative Path), a ser utilizada para o cálculo de rotas em protocolos de roteamento em redes em malha sem fio. Esta métrica leva em consideração a interferência causada por nós vizinhos na escolha de uma rota para um destino. O desempenho da métrica AP é avaliado e comparado com o da métrica ETX (Expected Transmission Count) e com o da métrica número de saltos (Hop Count). As simulações realizadas mostram que a métrica AP pode propiciar desempenho superior à rede quando comparada com as outras duas métricas. A métrica AP apresenta melhor desempenho em cenários com maior diversidade de caminhos alternativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicações ubíquas e pervasivas são cientes do contexto dos recursos utilizados no que diz respeito à disponibilidade e qualidade. Esta classe de aplicações pode se beneficiar de mecanismos para descobrir recursos que atendam aos requisitos não-funcionais desejados, e mecanismos para monitorar a qualidade destes recursos. Neste trabalho é proposta uma arquitetura para dois serviços que deveriam ser incluídos na infra-estrutura de suporte a ser utilizada pelas aplicações mencionadas: um Serviço de Contexto, que provê acesso a informações de contexto, e um Serviço de Descoberta, que permite a descoberta dinâmica de recursos, levando em conta restrições de contexto a serem satisfeitas. Estes serviços se apóiam em Agentes de Recursos, que efetivamente monitoram os recursos e sensores. Uma implementação de referência foi desenvolvida, oferecendo os serviços mencionados na forma de Serviços Web e implementando os Agentes de Recursos empregando um padrão de projeto simples. Para avaliar os serviços estes foram utilizados como infra-estrutura para o desenvolvimento de um sistema tolerante a falhas e uma aplicação de assistência domiciliar remota (tele-saúde). O desempenho dos serviços também foi avaliado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O papel dos polimorfismos genéticos da ECA (PGECA) na insuficiência cardíaca (IC) como preditor de desfechos clínicos e ecocardiográficos ainda não está estabelecido. É necessário identificar o perfil genotípico local para se observar se o impacto clínico desses genótipos é igual entre populações estrangeiras e a brasileira. O objetivo deste trabalho foi determinar a frequência das variantes do PGECA e sua relação com a evolução clínica de pacientes com IC de etiologia não isquêmica de uma população do Rio de Janeiro, utilizando desfechos clínicos, ecocardiográficos e do Seattle Heart Failure Model (SHFM).Para isso, realizou-se análise secundária de prontuários de 111 pacientes, acompanhados de forma prospectiva e retrospectiva, além da análise genética com identificação da variante do PGECA e sua classificação. Os pacientes foram acompanhados em média por 64,93,9 meses, tinham 59,51,3 (26-89) anos, predomínio do sexo masculino (60,4%) e da cor da pele branca (51,4 %), mas com alta prevalência de pretos (36 %). A distribuição do PGECA observada foi: 51,4 % DD, 44,1 % DI e apenas 4,5 % II. Hipertensão arterial foi a comorbidade mais frequentemente observada (70,3 %). O tratamento farmacológico estava bastante otimizado: 98,2 % em uso de betabloqueadores e 89,2 % em uso de inibidores da ECA ou losartana. Nenhuma das características clínicas ou do tratamento medicamentoso variou entre os grupos. Cerca de metade da coorte (49,5 %) apresentou fração de ejeção de VE (FEVE) ≤35 %. O diâmetro sistólico do VE (DSVE) final foi a única variável ecocardiográfica isolada significativamente diferente entre os PGECA: 59,21,8 DD x 52,31,9 DI x 59,25,2 (p=0,029). Quando analisadas de maneira evolutiva, todas as variáveis (FEVE, DSVE e DDVE) diferiram de maneira significativa entre os genótipos: p=0,024 para ∆FE, p=0,002 para ∆DSVE e p=0,021 para ∆DDVE. O genótipo DI se associou ao melhor parâmetro ecocardiográfico (aumento de FEVE e diminuição de diâmetros de VE), enquanto que o DD e II apresentaram padrão inverso. Os valores derivados do SHFM (expectativa de vida, mortalidade em um ano e mortalidade em cinco anos) não variaram de forma significativa entre os genótipos, mas notou-se um padrão com o DD associado a piores estimativas, DI a estimativas intermediárias e II a valores mais benignos. Não houve diferença significativa entre desfechos clínicos isolados (óbitos: p=0,552; internação por IC: p=0,602 e PS por IC: p=0,119) ou combinados (óbitos + internação por IC: p=0,559). Na análise multivariada, o peso alelo D foi preditor independente da variação do DSVE (p=0,023). Em relação aos preditores independentes de óbito + internação por IC, foram identificados classe funcional NYHA final (p=0,018), frequência cardíaca final (p=0,026) e uso de furosemida (p=0,041). Em suma, a frequência alélia e das variantes do PGECA foram diferentes da maioria do estudos internacionais. O alelo D foi associado de forma independente à pior evolução ecocardiográfica. Não houve diferenças significativas em relação aos parâmetros derivados do SHFM, embora o genótipo II pareça estar associado com o melhor perfil clínico. Por último, não houve diferenças em relação aos desfechos clínicos entre os PGECA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa tem como finalidade explorar os recursos de interação do usuário com a informação georreferenciada, utilizando o próprio ambiente físico e seus elementos como interface. A indexação geográfica de arquivos digitais e os recursos disponíveis pela computação móvel estabeleceram um novo modelo de interação com a informação. Cabe ao designer criar sistemas e interfaces que levem em consideração a localização do usuário no acesso da informação atribuída ao entorno. Foi identificado que as soluções desenvolvidas para esse propósito utilizam telas e outros aparatos tecnológicos que constrangem a relação do usuário com o ambiente e interferem na experiência interativa. Como desdobramento da pesquisa foi desenvolvido um aplicativo que dispensa a tela na visualização e interação com a camada informacional do ambiente físico. O sistema utiliza os sensores de localização e orientação presentes nos smartphones para interagir com o entorno mapeado e georreferenciado. Dessa forma, o usuário, ao apontar o aparelho e selecionar diretamente o objeto de interesse, recebe os dados atribuídos a ele. Sem a interferência de telas ou dispositivos imersivos, o próprio ambiente se apresenta como interface de interação, dispensando novos ícones ou símbolos e tornando a tecnologia mais sutil em seu uso cotidiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No Brasil, entre as áreas protegidas e regulamentadas por lei estão às denominadas Unidades de Conservação (UC) e são definidas assim por possuírem características ambientais, estéticas, históricas ou culturais relevantes, importantes na manutenção dos ciclos naturais, demandando regimes especiais de preservação, conservação ou exploração racional dos seus recursos. O Parque Estadual da Serra da Tiririca (PESET), criado pela Lei 1.901, de 29 de novembro de 1991 localizado entre os municípios de Niterói e Maricá no Estado do Rio de Janeiro, enquadra-se na categoria de UC de Proteção Integral abrigando uma extensa faixa de Mata Atlântica em seus limites. Para a presente pesquisa foi feita uma classificação de Uso da terra e cobertura vegetal, refinada por pesquisas feitas através do trabalho de campo, que subsidiou a elaboração da proposta de Zoneamento Ambiental para o parque. O processamento digital da imagem foi feito utilizando-se o sistema SPRING desenvolvido pelo Instituto de Pesquisas Espaciais (INPE). A confecção dos mapas temáticos foi feita com apoio do sistema Arcgis desenvolvido pela ESRI. O Sistema de Informação Geográfica (SIG) foi empregado para as modelagens ambientais. Nessa etapa foram consideradas, de forma integrada, a variabilidade taxonômica, a expressão territorial e as alterações temporais verificáveis em uma base de dados georreferenciada. A tecnologia SIG integra operações convencionais de bases de dados, relativas ao armazenamento, manipulação, análise, consulta e apresentação de dados, com possibilidades de seleção e busca de informações e suporte à análise geoestatística, conjuntamente com a possibilidade de visualização de mapas sofisticados e de análise espacial proporcionada pelos mapas. A opção por esta tecnologia busca potencializar a eficiência operacional e permitir planejamento estratégico e administração de problemas, tanto minimizando os custos operacionais como acelerando processos decisórios. O estudo feito através da modelagem computacional do PESET apresentará o emprego das técnicas amplamente utilizadas no monitoramento ambiental, sendo úteis aos profissionais destinados à gestão e aos tomadores de decisão no âmbito das políticas públicas relacionadas à gestão ambiental de Unidades de Conservação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.