694 resultados para Inteligência de enxame


Relevância:

70.00% 70.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Os Sistemas Multi-Robôs proporcionam vantagens sobre um robô individual, quando da realização de uma tarefa com maiores velocidade, precisão e tolerância a falhas. Os estudos dos comportamentos sociais na natureza têm permitido desenvolver algoritmos bio-inspirados úteis na área da robótica de enxame. Seguindo instruções simples e repetitivas, grupos de robôs, fisicamente limitados, conseguem solucionar problemas complexos. Quando existem duas ou mais tarefas a serem realizadas e o conjunto de robôs é heterogêneo, é possível agrupá-los de acordo com as funcionalidades neles disponíveis. No caso em que o conjunto de robôs é homogêneo, o agrupamento pode ser realizado considerando a posição relativa do robô em relação a uma tarefa ou acrescentando alguma característica distintiva. Nesta dissertação, é proposta uma técnica de clusterização espacial baseada simplesmente na comunicação local de robôs. Por meio de troca de mensagens entre os robôs vizinhos, esta técnica permite formar grupos de robôs espacialmente próximos sem precisar movimentar os robôs. Baseando-se nos métodos de clusterização de fichas, a técnica proposta emprega a noção de fichas virtuais, que são chamadas de cargas, sendo que uma carga pode ser estática ou dinâmica. Se uma carga é estática permite determinar a classe à qual um robô pertence. Dependendo da quantidade e do peso das cargas disponíveis no sistema, os robôs intercambiam informações até alcançar uma disposição homogênea de cargas. Quando as cargas se tornam estacionárias, é calculada uma densidade que permite guiar aquelas que estão ainda em movimento. Durante as experiências, foi observado visualmente que as cargas com maior peso acabam se agrupando primeiro enquanto aquelas com menor peso continuam se deslocando no enxame, até que estas cargas formem faixas de densidades diferenciadas para cada classe, alcançando assim o objetivo final que é a clusterização dos robôs.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2015.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The frequency selective surfaces, or FSS (Frequency Selective Surfaces), are structures consisting of periodic arrays of conductive elements, called patches, which are usually very thin and they are printed on dielectric layers, or by openings perforated on very thin metallic surfaces, for applications in bands of microwave and millimeter waves. These structures are often used in aircraft, missiles, satellites, radomes, antennae reflector, high gain antennas and microwave ovens, for example. The use of these structures has as main objective filter frequency bands that can be broadcast or rejection, depending on the specificity of the required application. In turn, the modern communication systems such as GSM (Global System for Mobile Communications), RFID (Radio Frequency Identification), Bluetooth, Wi-Fi and WiMAX, whose services are highly demanded by society, have required the development of antennas having, as its main features, and low cost profile, and reduced dimensions and weight. In this context, the microstrip antenna is presented as an excellent choice for communications systems today, because (in addition to meeting the requirements mentioned intrinsically) planar structures are easy to manufacture and integration with other components in microwave circuits. Consequently, the analysis and synthesis of these devices mainly, due to the high possibility of shapes, size and frequency of its elements has been carried out by full-wave models, such as the finite element method, the method of moments and finite difference time domain. However, these methods require an accurate despite great computational effort. In this context, computational intelligence (CI) has been used successfully in the design and optimization of microwave planar structures, as an auxiliary tool and very appropriate, given the complexity of the geometry of the antennas and the FSS considered. The computational intelligence is inspired by natural phenomena such as learning, perception and decision, using techniques such as artificial neural networks, fuzzy logic, fractal geometry and evolutionary computation. This work makes a study of application of computational intelligence using meta-heuristics such as genetic algorithms and swarm intelligence optimization of antennas and frequency selective surfaces. Genetic algorithms are computational search methods based on the theory of natural selection proposed by Darwin and genetics used to solve complex problems, eg, problems where the search space grows with the size of the problem. The particle swarm optimization characteristics including the use of intelligence collectively being applied to optimization problems in many areas of research. The main objective of this work is the use of computational intelligence, the analysis and synthesis of antennas and FSS. We considered the structures of a microstrip planar monopole, ring type, and a cross-dipole FSS. We developed algorithms and optimization results obtained for optimized geometries of antennas and FSS considered. To validate results were designed, constructed and measured several prototypes. The measured results showed excellent agreement with the simulated. Moreover, the results obtained in this study were compared to those simulated using a commercial software has been also observed an excellent agreement. Specifically, the efficiency of techniques used were CI evidenced by simulated and measured, aiming at optimizing the bandwidth of an antenna for wideband operation or UWB (Ultra Wideband), using a genetic algorithm and optimizing the bandwidth, by specifying the length of the air gap between two frequency selective surfaces, using an optimization algorithm particle swarm

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo apresenta uma breve revisão de alguns dos mais recentes métodos bioinspirados baseados no comportamento de populações para o desenvolvimento de técnicas de solução de problemas. As metaheurísticas tratadas aqui correspondem às estratégias de otimização por colônia de formigas, otimização por enxame de partículas, algoritmo shuffled frog-leaping, coleta de alimentos por bactérias e colônia de abelhas. Os princípios biológicos que motivaram o desenvolvimento de cada uma dessas estratégias, assim como seus respectivos algoritmos computacionais, são introduzidos. Duas aplicações diferentes foram conduzidas para exemplificar o desempenho de tais algoritmos. A finalidade é enfatizar perspectivas de aplicação destas abordagens em diferentes problemas da área de engenharia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this research work, a new routing protocol for Opportunistic Networks is presented. The proposed protocol is called PSONET (PSO for Opportunistic Networks) since the proposal uses a hybrid system composed of a Particle Swarm Optimization algorithm (PSO). The main motivation for using the PSO is to take advantage of its search based on individuals and their learning adaptation. The PSONET uses the Particle Swarm Optimization technique to drive the network traffic through of a good subset of forwarders messages. The PSONET analyzes network communication conditions, detecting whether each node has sparse or dense connections and thus make better decisions about routing messages. The PSONET protocol is compared with the Epidemic and PROPHET protocols in three different scenarios of mobility: a mobility model based in activities, which simulates the everyday life of people in their work activities, leisure and rest; a mobility model based on a community of people, which simulates a group of people in their communities, which eventually will contact other people who may or may not be part of your community, to exchange information; and a random mobility pattern, which simulates a scenario divided into communities where people choose a destination at random, and based on the restriction map, move to this destination using the shortest path. The simulation results, obtained through The ONE simulator, show that in scenarios where the mobility model based on a community of people and also where the mobility model is random, the PSONET protocol achieves a higher messages delivery rate and a lower replication messages compared with the Epidemic and PROPHET protocols.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta as linhas gerais da estrutura da comunidade de inteligência brasileira e das possibilidades de emprego dos órgãos de inteligência do Brasil no combate ao crime organizado transnacional. Identifica aspectos desse tipo de crime que podem ser neutralizados através da atividade de inteligência. Aborda os seguintes tópicos: origens e desenvolvimento do crime organizado; crimes que alimentam o crime organizado; as atividades do Sistema Brasileiro de Inteligência (SISBIN) e suas necessidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta as origens e aptidões à inteligência emocional, com ênfase no ambiente de trabalho, e em especial, na liderança. Aplica os conceitos pesquisados na Câmara dos Deputados, a partir da identificação do quociente emocional da gerência média da Instituição e da percepção dos liderados sobre a atuação dos líderes. Traz uma análise realizada a partir da comparação dos dois perfis levantados, para comprovar a hipótese de que gerentes com maior quociente emocional agem mais efetivamente na gestão de pessoas. Recomenda o desenvolvimento de ações potencializadoras das competências emocionais na Câmara dos Deputados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Traça um panorama histórico da ação fiscalizadora do Congresso Nacional em relação à atividade de inteligência nacional, mais precisamente da Agência Brasileira de Inteligência – ABIN, órgão estatal responsável por essa atividade, na salvaguarda dos conhecimentos sigilosos do Estado, haja vista ser o Congresso Nacional, o órgão responsável pela fiscalização externa da rede e seus componentes. Identificar as vulnerabilidades existentes, principalmente no que tange aos recursos humanos, capital mais precioso desse processo, mas que, pela ganância, vaidade e cobiça, se torna o elo mais vulnerável. A Atividade de Inteligência dentre todas as áreas de controle democrático é a mais arriscada, haja vista a sua importância para o progresso e desenvolvimento de uma Nação. É uma atividade que se desenvolve diuturnamente buscando minimizar as desconfianças de todos os órgãos e organizações estatais envolvidos no processo. A salvaguarda dos documentos e de informações governamentais sigilosas é primordial para a segurança do Estado. A institucionalização da Atividade de Inteligência no Brasil, a partir de 1927, trouxe ao país uma situação antes exercida apenas no âmbito militar. Com leis, decretos, portarias e denominações várias do órgão nacional responsável, são desenvolvidas as ações de coordenação do fluxo de informações necessárias às decisões governamentais. A pesquisa foi realizada com base em fontes históricas e documentais, ressaltando o papel do Congresso Nacional na sua função de fiscalização das políticas de inteligência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudar a evolução, no pensamento de Henri Bergson, significa vê-la como um lento trabalho de consolidação, e, dessa forma, como fundamentalmente associada à ideia de tempo. Tempo é criação e evolução, tanto da vida como da matéria. Para a apreensão do tempo real ou duração, como prefere Bergson, ele propõe a intuição como método. A novidade dessa filosofia, na esfera do conhecimento, está no esforço do ultrapassamento do caráter instrumental da inteligência. Em uma primeira visada, parece notória a oposição entre intuição e inteligência: a primeira com forte vínculo com a vida, e a segunda voltada para a matéria inerte. Nossa investigação se encaminhou, então, no sentido de esclarecer essa dicotomia. Vimos, contudo, que ambas, intuição e inteligência, têm uma raiz comum, derivam de uma mesma realidade, dissociando, contudo, suas potências. E foi buscando a gênese da intuição no processo evolutivo, que Bergson encontrou na inteligência um elemento de defesa da vida. No trajeto da evolução, a intuição - ainda que puramente na forma de instinto - foi sendo paulatinamente abandonada pela consciência, que passou a se constituir quase que plenamente pela inteligência, priorizando a conquista da matéria, inadequada, portanto, à apreensão do real. Com os dois modos de atividade consciente, complementares e interdependentes que são, a humanidade poderia atingir seu pleno desenvolvimento. Apontaremos, então, a inadequação da ideia de anti-intelectualismo com que a filosofia de Bergson é, geralmente, associada. Nosso objetivo, finalmente, é mostrar que entender a evolução, com o viés bergsoniano, é relacionar a vida à duração, como uma contínua novidade que se confunde com criação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese objetiva percorrer a trajetória da criação, implantação e mudanças, ao longo do processo histórico do Aprendizado Agrícola de Barbacena, desde seu início, em 1910, até a época do presidente Getúlio Vargas, 1933. Como preliminares e pano de fundo, as iniciativas do Brasil, que, premido pela carência de mão de obra qualificada para atender à demanda das fazendas, após a abolição da escravatura, busca conhecimentos e experiências em outros países, na área da educação agrícola. Com o advento da República, verifica-se uma guinada do Estado brasileiro no sentido de assumir o ensino elementar público, a fim de ir diminuindo o percentual de analfabetos e de ensaiar a implantação do ensino agrícola, tendo em vista a crise que surgira no setor agrícola. É nesse cenário que se criam os aprendizados agrícolas. O Aprendizado Agrícola de Barbacena surge em 1910. Com foco nessa Instituição, abordam-se: o papel de lideranças políticas mineiras para trazer para Barbacena o primeiro Aprendizado Agrícola de Minas Gerais; as mudanças por que o Aprendizado passou, indo de seu início até a época de Getúlio, quando foi transformado em Escola Agrícola; o método de ensino, prevalentemente teórico-prático; a integração do Aprendizado com seu meio; o sistema de administração que incluía participação dos alunos nos lucros; a estrutura didático-pedagógica e o regime de internato. O estudo destaca o trabalho do seu primeiro Diretor, Diaulas Abreu, por 45 anos à frente da Instituição. Como metodologia de pesquisa, analisam-se decretos relativos à criação do Aprendizado, regulamentos, relatórios, dados do arquivo da Instituição e a troca de correspondência entre a direção e órgãos do governo. A pesquisa se encerra na era do presidente Getúlio Vargas, após a Revolução de 1930.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um primeiro objetivo desse estudo foi apresentar uma revisão sobre o que a literatura científica atual fala acerca da bateria de inteligência WISC-III. Os referenciais teóricos que embasam a construção dos testes de inteligência, tais como o modelo de Cattell- Horn Caroll e abordagens mais recentes foram explicitados. A partir das concepções de inteligência fluída (Gf) e cristalizada (Gc), buscou-se um dialógo com pressupostos básicos da psicologia evolucionista do desenvolvimento, considerando os planos de análise ontogenético e filogenético. Foram apresentados aspectos culturais que influenciam desenvolvimento do nosso percurso cognitivo. Teoricamente discutiu-se sobre as causas culturais que embasam o efeito Flynn, efeito de defasagem de escalas, buscando evidencias se nos subtestes da Escala Verbal da bateria WISC-III, adaptada ao contexto brasileiro, existiu sua incidência. Um segundo objetivo deste estudo foi identificar se haveria correlação entre variáveis tais como o uso de tecnologias, o acesso a mídias pelas crianças, práticas de criação e nos resultados obtidos em subtestes da escala WISC-III em crianças de 6 a 11 anos que residem no Rio de Janeiro. Participaram do estudo 25 crianças e seus respectivos responsáveis. Os resultados indicaram que aspectos do cuidado parental e maior acesso a recursos tecnológicos correlacionaram-se com os índices de QI na escala verbal da bateria WISC-III, sugerindo uma indissociável relação entre cultura e inteligência. Acredita-se que tais exposições podem contribuir para ampliar a compreensão da interpretação dos escores fornecidos pela escala WISC-III adaptada ao contexto brasileiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.