15 resultados para robotic swarm

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema abordado nesta dissertação de mestrado é a petrogênese dos diabásios do Eocretáceo que integram o Enxame de Diques da Serra do Mar na região de Angra dos Reis (RJ). Estes diques intrudem rochas do Terreno Ocidental e do Arco Magmático Rio Negro, inserindo-se no contexto geodinâmico de fragmentação do Gondwana no Cretáceo Inferior. Essas intrusões são subverticais e orientam-se preferencialmente a N039E. Intrusões retilíneas são as mais observadas em campo. Os diabásios são compostos, essencialmente, por plagioclásio e clinopiroxênios (augita e pigeonita). Quartzo, minerais opacos, apatita e olivina ocorrem como minerais acessórios. A composição mineral secundária é marcada pela presença de biotita, uralita e saussurita. Os diabásios estudados compreendem uma série transicional com afinidade toleítica. Os estudos petrológicos revelam a existência de cinco suítes de alto-TiO2, tendo sido as mesmas discriminadas com base nas razões La/Yb de amostras com o mesmo teor de MgO. Destas, apenas a suíte 2 têm quantidade mínima de amostras para avaliação de processos evolutivos. O resultado da modelagem petrogenética aponta que o processo evolutivo mais provável para a geração dos diabásios da suíte 2 é cristalização fracionada sem mudança na assembleia fracionante. As amostras representativas dos líquidos parentais das cinco suítes apresentam razões La/Nb e La/Yb maiores que a unidade, típicas de derivação de fonte enriquecida, que, em várias províncias basálticas continentais, tem sido associada à fusão exclusiva do manto litosférico subcontinental ou a sua participação em processos de mistura de fontes. A discriminação de fontes mantélicas foi feita exclusivamente com base nos teores de elementos traços de amostras representativas de líquidos parentais das cinco suítes discriminadas na área de estudo. Os modelos indicam que todas as cinco suítes estudadas estão relacionadas a fontes harzburgíticas com granada residual. A suíte 5 da área de estudo não pode ser associada à mesma fonte mantélica geradora das suítes 1, 2, 3 e 4 que, por sua vez, se originaram por diferentes quantidades de fusão parcial (respectivamente, 44%, 35%, 31% e 25%) de uma mesma fonte. Cabe ressaltar que a ocorrência de duas suítes, com razões La/Yb muito distintas, porém geograficamente muito próximas, sugere que processos de heterogeneidade mantélica, tipicamente laterais, devem também ocorrer verticalmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho foi desenvolvido no litoral norte do estado de São Paulo, onde ocorrem boas exposições de rochas intrusivas da porção meridional do Enxame de Diques da Serra do Mar, de idade eocretácica. O objetivo principal da dissertação é caracterizar os regimes tectônicos associados à colocação e à deformação de diques máficos na área de São Sebastião (SP) e sua distribuição espacial, a partir de interpretações de imagens de sensores remotos, análise de dados estruturais de campo e descrição petrográfica das rochas ígneas. A área apresenta grande complexidade no tocante ao magmatismo, uma vez que ocorrem diques de diabásios toleítico e alcalino, lamprófiro e rochas alcalinas félsicas como fonolitos, traquitos e sienitos, estes sob a forma diques, sills e plugs. Os diabásios toleíticos tem idades em torno 134 Ma, correlatas com o início do rifteamento sul-atlântico, enquanto que as rochas alcalinas datam de 86 Ma e estão relacionadas com um magmatismo intraplaca posterior. Os lineamentos estruturais orientam-se majoritariamente na direção ENE-WSW, paralela às foliações metamórficas e zonas de cisalhamento observadas no campo e descritas na literatura, referentes ao Domínio Costeiro da Faixa Ribeira. Os diques se orientam na direção NE-SW, com azimute semelhante porém ângulos de mergulho discordantes da foliação em grande parte da área, onde as foliações são de baixo ângulo. Um segundo conjunto de lineamentos orientado NW-SE ocorre como um importante conjunto de fraturas que cortam tanto as rochas do embasamento proterozóico quanto as rochas alcalinas neocretácicas. Diques com esta orientação são escassos. Um terceiro conjunto NNE-SSW ocorre na porção oeste da área, associado à presença de diques de diabásio que por vezes mostram indicadores de movimentação sinistral. A análise cinemática dos diques mostra um predomínio de distensão pura durante sua colocação, com um tensor de compressão mínima de orientação NW-SE, ortogonal ao principal trend dos diques. Componentes direcionais, por vezes ambíguas, são comumente observadas, com um discreto predomínio de componente sinistral. O mesmo padrão cinemático é observado para os diques toleíticos e para os alcalinos, sugerindo que o campo de tensões local pouco variou durante o Cretáceo. Embora o embasamento não tenha sido diretamente reativado durante a colocação dos diques, sua anisotropia pode ter controlado de certa forma a orientação do campo de tensões local durante o Cretáceo. Os mapas geofísicos da bacia de Santos existentes na literatura sugerem certo paralelismo entre as estruturas observadas na área de estudo e aquelas interpretadas na bacia. As estruturas NNE-SSW são paralelas ao trend das sub-bacias e ao gráben de Merluza, enquanto que as estruturas NW-SE são paralelas a zonas de transferência descritas na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lamprófiros e diabásios alcalinos afloram no litoral dos estados de São Paulo e Rio de Janeiro e integram o Enxame de Diques da Serra do Mar (EDSM). Essas rochas ocorrem sob a forma de diques e intrudem o Orógeno Ribeira, de idade Neoproterozóica/Cambro-Ordoviciana, inserindo-se no contexto geodinâmico de abertura do Oceano Atlântico Sul durante o Cretáceo Superior. Essas intrusões são subverticais e orientam-se preferencialmente a NE-SW, seguindo a estruturação das rochas encaixantes. Os lamprófiros são classificados como monchiquitos e camptonitos e exibem, respectivamente, textura hipocristalina e holocristalina. Apresentam também textura panidiomórfica, fenocristais de clinopiroxênio e olivina, imersos em matriz formada essencialmente por esses mesmos minerais, além de biotita, kaersutita e minerais opacos. O camptonito apresenta ainda plagioclásio na matriz. Os diabásios alcalinos são hipocristalinos a holocristalinos, equigranulares a inequigranulares, com fenocristais de olivina e/ou clinopiroxênio e/ou plagioclásio, em uma matriz composta essencialmente por esses minerais. As rochas estudadas caracterizam séries alcalinas miaskíticas, com os lamprófiros sendo tanto sódicos, potássicos e ultrapotássicos e os diabásios alcalinos como predominantemente sódicos. Modelagens petrogenéticas envolvendo possíveis processos evolutivos mostram que é improvável que os lamprófiros sejam cogenéticos por processos evolutivos envolvendo tanto cristalização fracionada, com ou sem assimilação concomitante, quanto hibridização. O mesmo ocorre para os diabásios alcalinos. A discriminação de fontes mantélicas foi feita com base nos teores de elementos traços de amostras representativas de líquidos parentais e indica que esse magmatismo alcalino está relacionado a fontes lherzolíticas com fusão parcial na zona de estabilidade do espinélio, isto é, a poucas profundidades. Os dados litogeoquímicos e isotópicos do sistema Sr-Nd das rochas estudadas sugerem tanto o envolvimento de fontes férteis, associadas ao manto sublitosférico, quanto de fontes enriquecidas, relacionadas ao manto litosférico subcontinental. Modelagens de mistura binária revelam que a petrogênese dos lamprófiros e diabásios alcalinos envolveu uma grande participação de um componente fértil misturado com contribuições menores de um componente enriquecido. Idades TDM (760-557 Ma) obtidas sugerem remobilização do manto litosférico no Neoproterozóico, talvez relacionadas à subducção da Placa São Francisco preteritamente à colisão do Orógeno Ribeira. Altas razões CaO/Al2O3 para os líquidos lamprofíricos menos evoluídos, altos teores de Zr, correlações negativas Zr/Hf e Ti/Eu e associação com carbonatitos indicam condições metassomáticas de alto CO2/H2O. Em escala local, modelos geodinâmicos baseados na astenosfera não isotérmica parecem mais aplicáveis. No entanto, modelos geodinâmicos baseados na astenosfera isotérmica (com o envolvimento de plumas) parecem mais indicados num contexto regional, considerando-se outras províncias alcalinas contemporâneas e correlatas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar da grande quantidade de estudos geoquímicos e geocronológicos que têm sido executados no enxame de diques de Ponta Grossa (EDPG), pouco se sabe a respeito da tectônica associada ao seu sin e pós emplacement. O objetivo desse estudo é identificar nos diques possíveis indicadores cinemáticos a fim de compreender essa dinâmica, além de caracterizar a tectônica rúptil Meso-cenozóica associada à área, afetando todas as rochas. A área de estudo está situada no entorno da Baía de Paranaguá, estado do Paraná, onde os diques do EDPG afloram intrudindo domínios pré-cambrianos, compostos por gnaisses, sequências metassedimentares e suítes graníticas pertencentes ao Terreno Paranaguá e uma pequena parte às Microplacas Curitiba e Luís Alves, ambos em contato através de Zonas de cisalhamento (SIGA JR, 1995). Essas rochas possuem direção de foliação marcante NE-SW. Os diques estudados foram divididos em dois grupos com base em estudos petrográficos, com forte predomínio dos básicos toleíticos e subordinadamente, os básicos alcalinos. Alguns diques compostos também foram encontrados, o que demonstra ao menos dois pulsos magmáticos possivelmente associados ao mesmo evento. São diques verticais a subverticais e possuem direção principal NW-SE. Com frequência apresentam fraturamento interno de direção NE-SW, provavelmente associados ao seu processo de resfriamento. Possuem formato tabular, porém não é raro que ocorram irregulares. As principais feições indicativas de movimentação oblíqua na intrusão desses diques são as estruturas de borda em degraus, tocos e zigue-zague, que demonstram em geral uma componente distensional destral de deslocamento. Agregando dados dos demais enxames de diques toleíticos principais, chegou-se a um valor médio de N80E para o tensor σ3 da abertura do Atlântico Sul, coerente com o esperado também para EDPG, visto que foram intrudidos em um ambiente transtensivo (CORREA GOMES, 1996). Falhas e fraturas são observadas cortando tanto as rochas encaixantes quanto os diques, caracterizando uma tectônica posterior à intrusão. As principais famílias de fraturas são N20-30E, N30-40W, N80W e N60-70E, formando zonas preferenciais de erosão no cruzamento entre elas. As falhas podem apresentar plano de falha bem definido com estrias e ressaltos, ocorrendo preenchidas ou não, tendo sido observados preenchimento de sílica e material carbonático. Predomina nas falhas observadas, cinemática sinistral demonstrando mudança no campo de esforços com relação ao emplacement dos diques. O estudo da tectônica rúptil assim como do emplacement dos diques da área vem a contribuir para o melhor entendimento dos processos de abertura do Oceano Atlântico Sul, além de abranger a região emersa do que constitui o embasamento da bacia de Santos, foco de extensivos estudos atualmente, podendo-se inferir que os mesmos processos tenham afetado a região offshore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sistemas Multi-Robôs proporcionam vantagens sobre um robô individual, quando da realização de uma tarefa com maiores velocidade, precisão e tolerância a falhas. Os estudos dos comportamentos sociais na natureza têm permitido desenvolver algoritmos bio-inspirados úteis na área da robótica de enxame. Seguindo instruções simples e repetitivas, grupos de robôs, fisicamente limitados, conseguem solucionar problemas complexos. Quando existem duas ou mais tarefas a serem realizadas e o conjunto de robôs é heterogêneo, é possível agrupá-los de acordo com as funcionalidades neles disponíveis. No caso em que o conjunto de robôs é homogêneo, o agrupamento pode ser realizado considerando a posição relativa do robô em relação a uma tarefa ou acrescentando alguma característica distintiva. Nesta dissertação, é proposta uma técnica de clusterização espacial baseada simplesmente na comunicação local de robôs. Por meio de troca de mensagens entre os robôs vizinhos, esta técnica permite formar grupos de robôs espacialmente próximos sem precisar movimentar os robôs. Baseando-se nos métodos de clusterização de fichas, a técnica proposta emprega a noção de fichas virtuais, que são chamadas de cargas, sendo que uma carga pode ser estática ou dinâmica. Se uma carga é estática permite determinar a classe à qual um robô pertence. Dependendo da quantidade e do peso das cargas disponíveis no sistema, os robôs intercambiam informações até alcançar uma disposição homogênea de cargas. Quando as cargas se tornam estacionárias, é calculada uma densidade que permite guiar aquelas que estão ainda em movimento. Durante as experiências, foi observado visualmente que as cargas com maior peso acabam se agrupando primeiro enquanto aquelas com menor peso continuam se deslocando no enxame, até que estas cargas formem faixas de densidades diferenciadas para cada classe, alcançando assim o objetivo final que é a clusterização dos robôs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MENEZES, Patrick Lourenço. Erros pré-analíticos em medicina laboratorial: uma revisão sistemática. 2013. 98 f. Dissertação (Mestrado em Saúde, Medicina Laboratorial e Tecnologia Forense) - Instituto de Biologia Roberto Alcântara Gomes, Universidade do Estado do Rio de Janeiro, Rio de Janeiro, 2013. A relevância evidente dos erros pré-analíticos como problema de saúde pública fica patente tanto no dano potencial aos pacientes quanto nos custos ao sistema de saúde, ambos desnecessários e evitáveis. Alguns estudos apontam que a fase pré-analítica é a mais vulnerável a erros, sendo responsável por, aproximadamente, 60 a 90% dos erros laboratoriais em consequência da falta orientação aos pacientes sobre os procedimentos que serão realizados no laboratório clínico. Objetivos: Sistematizar as evidências científicas relacionadas aos erros pré-analíticos dos exames laboratoriais de análises clínicas. Método: Uma revisão sistemática foi realizada, buscando as bases de dados do Medical Literature Analysis and Retrieval System Online (MEDLINE), Scopus(que inclui MEDLINE e Embase), ISI Web of Knowledge, SciFinder, Literatura Latino-Americana e do Caribe em Ciências da Saúde (Lilacs) (que inclui a Scientific Electronic Library Online SciELO) e o Índice Bibliográfico Espanhol de Ciências de Saúde (IBECS), para artigos publicados entre janeiro de 1990 e junho de 2012 sobre erros de exames laboratoriais que possam ocorrer na fase pré-analítica. Os estudos foram incluídos de acordo com os seguintes exames laboratoriais: hemograma, análise bioquímica do sangue total ou do soro, exames de coagulação sanguínea,uroanálise e exames hematológicos ou bioquímicos em outros materiais e categorizados pelo tipo de erro pré-analítico e pela frequência dos incidentes. Resultados: A busca nas bases de dados bibliográficas resultou no seguinte número de artigos recuperados: 547 na MEDLINE, 229 na Scopus, 110 na ISI, 163 na SciFinder, 228 na Lilacs e 64 na IBECS, perfazendo um total de 1.341 títulos. Ao fim da revisão sistemática, obteve-se um conjunto de 83 artigos para leitura de texto completo, dos quais 14 foram incluídos na revisão. Os estudos abrangeram diferentes tipos de laboratórios, setores técnicos e origem de erros, segundo a fase do processo laboratorial. Discussão: Sete artigos demonstraram erros de pedidos médicos, com uma alta variabilidade nos valores de incidência. Os seis artigos que estudaram erros de coleta de amostra observaram redução deste desfecho. As proporções de eventos adversos relatados e os impactos clínicos variaram, levando a consequências descritas como: erros decorrentes da flebotomia, recoleta de amostras, repetições de exames, atrasos na liberação de resultados de exames e possíveis danos ao paciente. Conclusões: O laboratório deve ter instruções por escrito para cada teste, que descreva o tipo de amostra e procedimento de coleta de amostra. Meios de identificação por código de barras, sistemas robóticos e analíticos reduzem os erros pré-analíticos. A melhoria da fase pré-analítica de testes laboratoriais permanece um desafio para muitos laboratórios clínicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.