843 resultados para Algoritmos e Programação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Eventos ou estímulos no início da vida podem afetar o desenvolvimento do indivíduo; dentre esses o tabagismo materno. A exposição materna isolada à nicotina, principal componente do cigarro, causa na prole alterações metabólicas, em curto e longo prazo, como aumento da adiposidade, resistência à leptina, e disfunção tireoideana e adrenal. Entretanto é sabido que na fumaça de cigarro estão presentes outros componentes com potenciais efeitos tóxicos. Assim propomos comparar o efeito de duas formas de exposição neonatal à fumaça do cigarro sobre o perfil endócrino-metabólico da prole em curto e longo prazo. Para isso, no 3 dia após o nascimento, ratos lactentes foram submetidos a dois modelos: Modelo I (exposição pelo leite materno), ninhadas separadas em: exposição à fumaça (EF; n=8) lactantes expostas à fumaça de cigarros 2R1F (1,7 mg de nicotina/cigarro por 1h, 4 vezes ao dia), separadas de suas proles e grupo controle (C; n=8), onde as mães foram separadas de suas proles e expostas ao ar filtrado; Modelo II (exposição direta à fumaça), ninhadas separadas em: exposição à fumaça (EF; n=8) mães e proles expostas à fumaça de cigarros 2R1F e controle (C; n=8) mães e proles expostas ao ar filtrado. A exposição ao tabaco ocorreu até o desmame. Mães sacrificadas aos desmame e proles aos desmame e aos 180 dias de idade. As mães lactantes expostas à fumaça (EF) apresentaram hipoleptinemia (-46%), hiperprolactinemia (+50%), hipoinsulinemia (-40%) e diminuição de triglicérides (-53%). Quanto a composição bioquímica do leite, as lactantes EF mostraram aumento de lactose (+52%) e triglicérides (+78%). No modelo I, as proles EF apresentaram ao desmame: diminuição da gordura corporal total (-24%), aumento de proteína corporal total (+17%), diminuição da glicemia (-11%), hiperinsulinemia (+28%), hipocorticosteronemia (-40%) e aumento de triglicérides (+34%). Quando adultas, as proles EF apresentaram somente alteração da função adrenal onde observou-se menor conteúdo de catecolaminas (-50%) e da expressão de tirosina hidroxilase na medula adrenal (-56%). No modelo II, as proles EF aos 21 dias exibiram diminuição da MC (-7%), do comprimento nasoanal (-5%), da gordura retroperitoneal (-59%), da área dos adipócitos viscerais (-60%) com maior área dos adipócitos subcutâneos (+95%), aumento do T4 (+59), da corticosterona (+60%), do conteúdo adrenal de catecolaminas (+58%) e hipoinsulinemia (-29%). Aos 180 dias, as proles EF apresentaram aumento da ingestão alimentar (+10%), dos depósitos de gordura visceral (~60%) e conteúdo de gordura corporal total (+50%), menor área dos adipócitos subcutâneos (-24%), aumento da leptina (+85%), glicemia (+11%), adiponectina (+1.4x), T3 (+71%), T4 (+57%) e TSH (+36,5%) com menor corticosterona (-41%) e catecolaminas adrenais (-57%) e aumento dos triglicerídeos (+65%). Somados nossos dados evidenciam o impacto negativo que a exposição à fumaça do cigarro tem sobre o desenvolvimento do neonato com o surgimento de desordens endócrinas futuras, que ocorrem pelo menos em parte devido às alterações observadas nas mães. Portanto, independente da forma de exposição, seja via aleitamento materno ou por inalação direta, é de grande importância alertar a sociedade sobre as possíveis complicações metabólicas em longo prazo decorrente da exposição involuntária do neonato ao tabagismo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta Dissertação propõe-se a aplicação de algoritmos genéticos para a síntese de filtros para modular sinais de controladores a estrutura variável e modo deslizante. A modulação do sinal de controle reduz a amplitude do sinal de saída e, consequentemente, pode reduzir o consumo de energia para realizar o controle e o chattering. Esses filtros também são aplicados em sistemas que possuem incertezas paramétricas nos quais nem todas as variáveis de estado são medidas. Nesses sistemas, as incertezas nos parâmetros podem impedir que seus estados sejam estimados com precisão por observadores. A síntese desses filtros necessita da obtenção da envoltória, que é o valor máximo da norma de cada resposta impulsiva admissível no sistema. Após este passo, é sintetizado um filtro que seja um majorante para a envoltória. Neste estudo, três métodos de busca da envoltória por algoritmos genéticos foram criados. Um dos métodos é o preferido, pois apresentou os melhores resultados e o menor tempo computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta um sistema de indução de classificadores fuzzy. Ao invés de utilizar a abordagem tradicional de sistemas fuzzy baseados em regras, foi utilizado o modelo de Árvore de Padrões Fuzzy(APF), que é um modelo hierárquico, com uma estrutura baseada em árvores que possuem como nós internos operadores lógicos fuzzy e as folhas são compostas pela associação de termos fuzzy com os atributos de entrada. O classificador foi obtido sintetizando uma árvore para cada classe, esta árvore será uma descrição lógica da classe o que permite analisar e interpretar como é feita a classificação. O método de aprendizado originalmente concebido para a APF foi substituído pela Programação Genética Cartesiana com o intuito de explorar melhor o espaço de busca. O classificador APF foi comparado com as Máquinas de Vetores de Suporte, K-Vizinhos mais próximos, florestas aleatórias e outros métodos Fuzzy-Genéticos em diversas bases de dados do UCI Machine Learning Repository e observou-se que o classificador APF apresenta resultados competitivos. Ele também foi comparado com o método de aprendizado original e obteve resultados comparáveis com árvores mais compactas e com um menor número de avaliações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A leptina tem um papel importante na regulação do sistema reprodutivo além de seu papel principal na regulação do peso corporal e ingestão alimentar. O objetivo deste estudo foi avaliar o efeito da administração de leptina durante o período neonatal na função testicular da prole adulta. Vinte e quatro filhotes de 12 mães foram divididos em 2 grupos: Grupo leptina: injetados com 50 L de leptina (80ng/gPC, subcutânea) nos primeiros 10 dias de vida e Grupo Controle: injetados com o mesmo volume de solução salina. Todos os animais foram sacrificados aos 90 dias de vida. Parâmetros analisados: consumo alimentar, massa corporal, crescimento linear, data de início da puberdade, perfil lipídico, níveis séricos de estradiol e testosterona, expressão gênica (PCR em tempo real) e expressão proteica (Western blot) de ObRa, OBRb, aromatase, AR, ER, morfometria testicular, número, morfologia e viabilidade de espermatozoides. Os dados foram expressos como média erro padrão. A significância estatística foi determinada pelo teste t de Student. A Injeção de leptina levou a uma redução (p≤0,008) no consumo alimentar a partir do dia 26 ao 40 e do dia 70 em diante, enquanto que a massa corporal (p≤0,03) e o crescimento linear (p≤0,05) foram reduzidos do dia 26 até o dia 45. O peso da hipófise (p≤0,0006), hipotálamo (p≤0,01), próstata (p≤0,003), testículo (p≤0,008) e epidídimo (p≤0,004) e bexiga (p≤0,009) foram significativamente reduzidos pela injeção de leptina. A Injeção de leptina adiantou o início da puberdade (C=45,0 0,3; L=41,6 0,3; dias, P≤0,0001). Em relação ao perfil lipídico, a administração de leptina gerou um aumento nos níveis séricos de TG (C= 116,5 15,9; L=172,6 19,7; ng/dL, P≤0,05) e uma redução nos níveis de HDL (C=33 1,5; L = 24 3,5; ng/dL, P≤0,02). Os níveis séricos de testosterona também foram reduzidos pela leptina (C=5,2 1,0; L=1,1 0,3; ng/mL, P≤0,003). Todos os genes avaliados por PCR em tempo real mostraram um aumento na sua expressão: Obra (C=0,32 0,04; L=0,69 0,16; P≤0,04), OBRb (C=0,37 0,06; L=0,71 0,16; P≤0,03), AR (C=0,28 0,02; L=0,71 0,16; P≤0,02), Aromatase (C=0,31 0,04; L=0,53 0,09; P≤0,04), ER-α (C=0,79 0,03; L=0,93 0,03; P≤0,01), ER-β (C=0,29 0,03; L=0,73 0,16; P≤ 0,02). Por outro lado, a expressão proteica de OBR (C=4,4 0,29; L=6,6 0,84; P≤0,05), ER-α (C=0,4 0,02; L=0,6 0,05; P≤0,03) e aromatase (C=0,4 0,03; L=0,5 0,02; P≤0,04) aumentaram, enquanto que a expressão proteica de AR (C=0,16 0,01; L=0,09 0,01; P≤0,009) foi reduzida pela administração de leptina. A análise morfométrica mostrou que a leptina levou a um aumento da área total do túbulo seminífero (C=64,6 3,1; L=56,1 2,1;μm, P≤0,01), aumento da área luminal (C=40,6 2,3; L= 48,7 0,9; μm P≤ 0,004) e na altura do epitélio (C=21,5 1,2; L=24,6 1,1; μm, P≤0,03), enquanto que o comprimento do túbulo seminífero foi reduzido no grupo tratado (C=2200 350; L= 1100 110;cm, P≤0,006). A administração de leptina levou a um aumento no número total de espermatozoides (C=20x107 2x107; L=30x107 5x107;Cls/mL, P≤0,009) e no número de anormalidades (C=40,6 1,9; L=45,8 1,2, P≤0,049). Podemos concluir que a leptina tem um papel importante na morfologia e função testicular. A leptina parece ter efeito direto neste tecido uma vez que a expressão gênica e proteica de OBR, AR, ER e aromatase foram alterados pela administração da leptina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Redes de trocadores de calor são bastante utilizadas na indústria química para promover a integração energética do processo, recuperando calor de correntes quentes para aquecer correntes frias. Estas redes estão sujeitas à deposição, o que causa um aumento na resistência à transferência de calor, prejudicando-a. Uma das principais formas de diminuir o prejuízo causado por este fenômeno é a realização periódica de limpezas nos trocadores de calor. O presente trabalho tem como objetivo desenvolver um novo método para encontrar a programação ótima das limpezas em uma rede de trocadores de calor. O método desenvolvido utiliza o conceito de horizonte deslizante associado a um problema de programação linear inteira mista (MILP). Este problema MILP é capaz de definir o conjunto ótimo de trocadores de calor a serem limpos em um determinado instante de tempo (primeiro instante do horizonte deslizante), levando em conta sua influência nos instantes futuros (restante do horizonte deslizante). O problema MILP utiliza restrições referentes aos balanços de energia, equações de trocadores de calor e número máximo de limpezas simultâneas, com o objetivo de minimizar o consumo de energia da planta. A programação ótima das limpezas é composta pela combinação dos resultados obtidos em cada um dos instantes de tempo.O desempenho desta abordagem foi analisado através de sua aplicação em diversos exemplos típicos apresentados na literatura, inclusive um exemplo de grande porte de uma refinaria brasileira. Os resultados mostraram que a abordagem aplicada foi capaz de prover ganhos semelhantes e, algumas vezes, superiores aos da literatura, indicando que o método desenvolvido é capaz de fornecer bons resultados com um baixo esforço computacional