111 resultados para CUDA (Arquitetura de computador)
Resumo:
O estudo que apresento está assentado em questões, cujo aprofundamento pretende trazer contribuição à ressignificação dos processos de ensino-aprendizagem, especialmente no âmbito da geometria espacial. Dentre as questões destaco: (1) a relação entre cibercultura e processos de ensinar-aprender, especialmente no que se refere ao conteúdo da geometria espacial, (2) os modos de sentir, de expressar-se e de aprender que a mediação da cultura digital traz contemporaneamente para os jovens; (3) a pesquisa entendida como acontecimento/experiência, cuja dimensão de intervenção permite a pesquisador e pesquisados relacionarem-se dialogicamente, reconhecendo-se como co-autores do processo de investigação. O principal interesse da pesquisa foi investigar se a dinâmica do uso das tecnologias em redes, própria da cibercultura, pode ressignificar o aprendizado do conhecimento de geometria espacial de jovens alunos do Ensino Médio. A abordagem teórico-metodológica está fundamentada nos princípios bakhtinianos da dialogia e da alteridade e no conceito vigotskiano de mediação. Sob a orientação da abordagem histórico-cultural, outros interlocutores teóricos contribuiram de modo significativo para a compreensão das questões que envolvem a relação entre educação e processos comunicacionais pós-massivos, tendo sido indispensáveis à construção e interpretação dos dados Dentre eles, cito Lucia Santaella, Maria Teresa Freitas, Pierre Lévy, Marília Amorim, Maria Helena Bonilla, Nelson Pretto, Edmea Santos, Guaracira Gouvêa, Maria Luiza Oswald, entre outros. O estudo foi realizado numa escola da rede estadual na cidade de Cabo Frio/RJ, sendo sujeitos da pesquisa 78 alunos/as do 2 e 3 ano do Ensino Médio. Para colher as informações de caráter objetivo, foi aplicado um questionário através do aplicativo Google Docs. Os dados qualitativos foram construídos por intermédio da dinâmica de convergência de mídias que engloba a metodologia Webquest, a interface wiki e o software Geogebra. Tendo em vista os pressupostos do estudo que relacionam propostas autorais, posturas alteritárias e práticas cotidianas procurei construir uma estratégia metodológica em que a apropriação das dinâmicas ciberculturais e das interfaces digitais fosse capaz de me auxiliar a identificar como usar estes dispositivos no processo de ressignificação da construção do conhecimento geométrico, bem como descobrir os limites de sua aplicação. Os resultados alcançados, ainda que provisórios dado o inacabamento dos acontecimentos que fazem da pesquisa uma experiência inacabada, apontam para a necessidade de reconhecer os jovens como produtores de saberes que deveriam ser legitimados para que a prática de ensinar-aprender geometria resultasse em conhecimento que articula ciência e vida cotidiana. Essa foi a valiosa lição que a pesquisa trouxe à minha própria prática de professora de matemática, lição que, espero, possa ecoar para outros professores.
Resumo:
Nesta dissertação analisamos peças publicitárias veiculadas em um semanário de circulação nacional, com o objetivo de constatar se o uso das letras, em especial as maiúsculas, constitui uma transgressão às normas gramaticais da língua portuguesa. Para isso, partimos da hipótese de que esse uso constitui uma questão artística ou de estilo, destinado à persuasão do consumidor potencial. Valemo-nos das orientações da gramática normativa da língua, da Estilística e da Semiótica para respondermos a essa hipótese. Foi considerado também o emprego das cores, das formas da linguagem visual, da diagramação, além do poder de persuasão das letras, elementos importantes da publicidade impressa. Foram analisadas quarenta e quatro peças publicitárias publicadas nos meses de outubro, novembro e dezembro de 2012, e março, abril e maio de 2013. Observamos nos anúncios os valores semióticos dos signos verbais e não verbais como ícones ou índices na arquitetura visual do texto
Resumo:
A prevalência de dor lombar e cervical na adolescência é tão elevada quanto nos adultos e seu início, na adolescência, aumenta o risco de desenvolver dor crônica na vida adulta. Existem poucos estudos que tenham investigado como são os hábitos posturais dos adolescentes durante o tempo que estão em atividades passivas em casa e se esses hábitos estão associados à dor lombar e à dor cervical. Objetivo: Investigar a prevalência de dor lombar (DL) e de dor cervical (DC) em adolescentes e suas associações com hábitos posturais domiciliares enquanto estão assistindo a TV e/ou usando o computador. Métodos: Estudo transversal com adolescentes de uma escola pública de ensino médio do Rio de Janeiro. Os estudantes responderam questões relativas a variáveis sociodemográficas, ao estilo de vida, aos hábitos posturais (ilustrações), ao tempo assistindo a TV, ao tempo usando o computador, ao tempo usando o videogame e sobre a presença da DL e da DC. Foi utilizada regressão logística multivariada para analisar a associação entre hábitos posturais domiciliares e dor lombar e cervical. Resultados: Foram 1102 participantes. A prevalência de DL foi de 46,8% (18,2% dor lombar crônica [DLC] e 28,6% dor lombar aguda [DLA]. A prevalência de dor cervical aguda (DCA) foi de 32,9%. Posturas slump (excessivamente relaxadas) ao assistir a TV e ao usar o computador de mesa estiveram associadas com DLC (RC [razão de chances] 3,22, IC 95% 1,38 7,5 e RC 1,7, IC 95% 1,06 2,73). Participantes que assistiam a TV sentados na cama tiveram uma RC de 2,14 (IC 95% 1,06 4,32) para DLA e os que usavam o notebook em decúbito ventral na cama tiveram uma RC de 2,26 (IC 95% 1,02 5,01) para DLA. Os participantes que assistiam a TV em decúbito dorsal por 2 horas ou mais tiveram uma RC de 6,21 (IC 95% 1,45 26,52) para DCA. Aqueles que disseram que mudavam de postura com frequência, ao usar o computador de mesa por 2 horas ou mais, tiveram uma RC de 0,34 (IC 95% 0,14 0,85) para DCA. Conclusão: Os nossos achados apoiam a elevada prevalência de DL e de DC na adolescência e adicionam a associação com os hábitos posturais domiciliares.
Resumo:
A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.
Resumo:
Técnicas de limpeza química ou mecânica são comumente empregadas para evitar a formação de biofilmes e problemas associados com a colonização de superfícies por micro-organismos. Neste trabalho, amostras de aço inox 304L foram submetidas a ensaios acelerados de crescimento de biofilme, o qual foi posteriormente removido por tratamentos de limpeza e desinfecção (choque térmico com água a 70C por 1h, limpeza com ácido fosfórico 20 % v/v por 30min e desinfecção com peróxido de hidrogênio 0,17 % v/v por 1h). Com o objetivo de verificar a influência destes tratamentos na remoção do biofilme, este foi caracterizado (por quantificação microbiana e análises de espectroscopia de impedância eletroquímica - EIE), antes e após a aplicação dos tratamentos. Dois casos foram estudados. No primeiro caso, simularam-se condições presentes em tubulações de ambientes hospitalares e sistemas de distribuição de água quente. O micro-organismo utilizado foi a bactéria Serratia marcences. O processo de formação de biofilme e posterior limpeza e desinfecção foi realizado de modo contínuo durante 15 semanas. Os resultados de quantificação microbiana e de EIE mostraram que desde a primeira semana de exposição e ao longo dos ensaios, formou-se um biofilme aderente à superfície do aço e que o emprego dos tratamentos de limpeza e desinfecção não foi eficaz na remoção do biofilme. Em um segundo caso, simularam-se condições presentes em tubulações da indústria de água mineral, empregando-se a bactéria Pseudomonas aeruginosa. Neste caso, as técnicas de limpeza e desinfecção foram aplicadas individualmente e em conjunto. A aplicação de choque térmico, assim como da limpeza ácida, sobre um biofilme com 72 h de formação foi capaz de eliminar as bactérias viáveis, presentes na superfície do aço. Entretanto, a desinfecção com peróxido de hidrogênio não foi capaz de eliminá-las. Nas duas condições, porém, as análises de EIE do sistema aço/biofilme mostraram que o mesmo não foi completamente removido da superfície do metal. Correlacionando os dois casos, pode-se inferir que a superfície do aço inox 304L é rapidamente colonizada pelas duas espécies microbianas e que as técnicas de limpeza e desinfecção são capazes de reduzir e até eliminar as células viáveis, embora não removam completamente o biofilme da superfície. Por outro lado, é importante ressaltar que fatores como a arquitetura, espessura e porosidade do biofilme, e propriedades intrínsecas da superfície, são fatores que afetam os valores de impedância medidos, sendo necessário considerá-los na análise, tanto da formação do biofilme, quanto dos efeitos dos procedimentos de limpeza e desinfecção
Escolhas lexicais e iconicidade textual: uma análise do insólito no romance Sombras de Reis Barbudos
Resumo:
Esta tese dedicou-se a descrever e interpretar a tessitura textual dos fenômenos insólitos no romance Sombras de Reis Barbudos, de José J. Veiga, com base na associação entre a Teoria da Iconicidade Verbal e a Linguística de Córpus . Centrou-se, especificamente, nas marcas linguísticas que representam ideias ou conduzem o intérprete à percepção de que o insólito é construído no texto por meio itens léxicos que constituem pistas icônicas. Merecem especial interesse, sobretudo, os substantivos, que, por serem palavras com alta iconicidade, participam da construção/representação de fenômenos insólitos e criam, por meio da trilha léxica, o itinerário de leitura para o texto-córpus. Para que os resultados fossem significativos, análise apoiou-se nos recursos digitais da Linguística de Córpus (SARDINHA, 2004; 2009), que possibilitaram realizar uma pesquisa baseada em um córpus. A utilização da Linguística de Córpus como metodologia permitiu levantar, quantificar e tabular os signos que corroboram com a compreensão da incongruência e da iconicidade lexical dos fenômenos insólitos em um texto literário, identificando os substantivos-nódulos e seus colocados, para avaliá-los quanto à incompatibilidade das escolhas lexicais realizadas por José J. Veiga em relação às estruturas lexicogramaticais da Língua Portuguesa. Fundamentou-se a discussão no insólito como categoria essencial do fantástico modal (BESSIÈRE, 2009; COVIZZI, 1978, FURTADO, s.d.; PRADA OROPREZA, 2006); na Semiótica de extração peirceana, com enfoque na Teoria da Iconicidade Verbal (SIMÕES, 2007,2009) e na colocação lexical (BÉNJOINT, 1994; SINCLAIR, 1987, 1991, 2004; TAGNIN, 1989). A tese demonstra que a incongruência e a iconicidade lexical são identificadas a partir da seleção vocabular obtida pelo processamento digital e pelo confronto com o Córpus do Português. A análise comprova que os substantivos, como categorias linguísticas caracterizáveis semanticamente, têm a função designatória ou de nomeação na arquitetura de um texto em que se manifesta o insólito. Revela também que a incongruência lexical constitui-se em uma chave para a construção do ilógico, mágico, fantástico, misterioso, sobrenatural, irreal e suprarreal no texto-córpus
Resumo:
O uso de Internet para a distribuição de fluxos de vídeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos de vídeo na Internet. A idéia básica da distribuição de vídeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços de vídeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição de vídeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo de vídeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade de vídeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.
Resumo:
Este trabalho avalia o desempenho de um controlador fuzzy (tipo Takagi-Sugeno-Kang) quando, utilizando tecnologia sem fio para conectar as entradas e a saída do controlador aos sensores/atuadores, sofre perda das informações destes canais, resultado de perdas de pacotes. Tipicamente são utilizados controladores PID nas malhas de controle. Assim, o estudo realizado compara os resultados obtidos com os controladores fuzzy com os resultados dos controladores PID. Além disso, o trabalho visa estudar o comportamento deste controlador implementado em uma arquitetura microprocessada utilizando números inteiros nos cálculos, interpolação com segmentos de reta para as funções de pertinência da entrada e singletons nas funções de pertinência da saída. Para esse estudo foi utilizado, num ambiente Matlab/Simulink, um controlador fuzzy e o aplicativo True Time para simular o ambiente sem fio. Desenvolvido pelo Departamento de Controle Automático da Universidade de Lund, o True Time é baseado no Matlab/Simulink e fornece todas as ferramentas necessárias para a criação de um ambiente de rede (com e sem fio) virtual. Dado o paradigma de que quanto maior for a utilização do canal, maior a degradação do mesmo, é avaliado o comportamento do sistema de controle e uma proposta para diminuir o impacto da perda de pacotes no controle do sistema, bem como o impacto da variação das características internas da planta e da arquitetura utilizada na rede. Inicialmente são realizados ensaios utilizando-se o controlador fuzzy virtual (Simulink) e, posteriormente, o controlador implementado com dsPIC. Ao final, é apresentado um resumo desses ensaios e a comprovação dos bons resultados obtidos com um controlador fuzzy numa malha de controle utilizando uma rede na entrada e na saída do controlador.
Resumo:
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Este trabalho propõe uma arquitetura reutilizável que permite a gerência de uma infraestrutura de suporte para aplicações Web, utilizando máquinas virtuais. O objetivo da arquitetura é garantir qualidade de serviço, atuando nos servidores físicos (hospedeiros) ou manipulando as máquinas virtuais, e avaliando o cumprimento das restrições de operação (tempo de resposta máximo). Além disso, através do uso racional dos recursos utilizados, a proposta visa à economia de energia. O trabalho também inclui uma avaliação de desempenho realizada sobre um sistema implementado com base na arquitetura. Esta avaliação mostra que a proposta é funcional e o quanto ela pode ser vantajosa do ponto de vista do uso de recursos, evitando desperdício, mantendo-se ainda a qualidade de serviço em níveis aceitáveis pela aplicação.
Resumo:
Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.