107 resultados para Algoritmos de computador


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma arquitetura geral para evolução de circuitos eletrônicos analógicos baseada em algoritmos genéticos. A organização lógica privilegia a interoperabilidade de seus principais componentes, incluindo a possibilidade de substituição ou melhorias internas de suas funcionalidades. A plataforma implementada utiliza evolução extrínseca, isto é, baseada em simulação de circuitos, e visa facilidade e flexibilidade para experimentação. Ela viabiliza a interconexão de diversos componentes aos nós de um circuito eletrônico que será sintetizado ou adaptado. A técnica de Algoritmos Genéticos é usada para buscar a melhor forma de interconectar os componentes para implementar a função desejada. Esta versão da plataforma utiliza o ambiente MATLAB com um toolbox de Algoritmos Genéticos e o PSpice como simulador de circuitos. Os estudos de caso realizados apresentaram resultados que demonstram a potencialidade da plataforma no desenvolvimento de circuitos eletrônicos adaptativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo é comparar o ajuste interno e marginal cervical de dois sistemas de compósito e um de cerâmica prensada. O Material e Métodos foi elaborado a partir de um modelo mestre metálico com preparo para inlay MOD, 15 troquéis de gesso tipo IV foram obtidos e distribuídos randomicamente em três grupos (n=5), a saber: Grupo Empress, Grupo Sinfony e Grupo Z350. Após a confecção das restaurações, cada peça foi posicionada no modelo mestre e fotografada nas faces mesial e distal para através de um programa de computador fazer a análise da desadaptação marginal cervical. Depois, a peça foi cimentada no modelo mestre usando silicone de adição de ultrabaixa viscosidade para preencher o espaço entre as restaurações e o preparo. Após a remoção das inlays, cada réplica foi pesada em balança de precisão para posterior obtenção de seu volume. Nos Resultados temos a interface paredes do preparo/paredes da restauração: houve diferença estatística entre o grupo Empress, que apresentou volume até 137% maior que os demais grupos, que foram considerados iguais entre si. Área de desadaptação marginal cervical: Houve diferença entre todos os grupos com o grupo Empress apresentando os maiores valores, seguido pelo grupo Sinfony e pelo grupo Z350. Os grupos Empress e o Sinfony apresentaram respectivamente áreas de desadaptação 450% e 200% maiores que o grupo Z350. Maior distância entre as bordas da restauração e as margens do preparo os grupos Empress e Sinfony foram iguais estatisticamente e diferentes do grupo Z350 que apresentou os menores valores. Entretanto, o grupo Empress apresentou uma desadaptação linear 43% maior que o grupo Sinfony. Concluímos que quanto ao desajuste interno, o grupo Empress apresentou os maiores valores no volume da interface dente/restauração, com diferença estatística significativa (P<0,05) em relação aos demais grupos. Para o cálculo da área, a desadaptação marginal foi menor no grupo Z350, seguido dos grupos Sinfony e Empress, todos mostrando diferença estatística significativa entre si (P<0,05). Considerando a medida linear, a desadaptação marginal foi menor no grupo Z350, indicando diferença estatística significativa (P<0,05) deste para os demais grupos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa tem por objetivo discutir os modelos de leitura subjacentes ao trabalho proposto em sites de ensino de Francês de Língua Estrangeira (FLE). Para compreender como se apresentam os modelos de leitura nesses contextos, consideramos como base teórica de partida a concepção sócio-interacional da língua. Para tal, contextualizamos a necessidade de uma constante reflexão acerca do processo de ensino/aprendizagem de FLE. Em seguida, apresentamos a motivação para desenvolver a pesquisa e apresentamos, resumidamente, o nosso percurso metodológico. Destacamos a revisão bibliográfica, apresentando os modelos de leitura e as estratégias que envolvem essa atividade em meio virtual. O primeiro momento de nossa pesquisa foi de cunho exploratório porque não tínhamos conhecimento do universo de sites voltados para o ensino de FLE. A pesquisa é, também, de natureza documental uma vez que trabalhamos com sites tomados como documentos. Optamos pelo caráter descritivo pois, a partir da descrição, baseada nos critérios de análise, do material retirado dos sites que fazem parte do nosso corpus, é que respondemos e confirmamos nossas hipóteses. Nosso método de análise é o qualitativo porque buscamos interpretar, a partir de nossas observações dos documentos selecionados em um primeiro momento. Após estabelecer os critérios, partimos para a discussão e análise dos dados e, em seguida, fazemos algumas orientações aos professores que quiserem utilizar o material disponibilizado pelos sites analisados. No capítulo final, fazemos considerações sobre a pesquisa, apresentamos os resultados das análises, explicitamos a importância do trabalho para a construção do conhecimento acerca da leitura em meio virtual, e, finalmente, recomendamos novos estudos, diante do que encontramos, para que o ensino da leitura em Língua Estrangeira contribua para a formação de leitores autônomos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa dissertação tem o objetivo de verificar a contribuição de diferentes abordagens para extração de linhas, à classificação de imagens multiespectrais, com o possível uso na discriminação e mapeamento de classes de cobertura da terra. Nesse contexto, é efetuada a comparação entre diferentes técnicas de extração de características para extração de linhas de transmissão em áreas rurais, a saber, técnicas de realce utilizando variação de contraste e filtragem morfológica, bem como detecção de bordas utilizando filtro Canny e detector SUSAN, citando como técnica de extração de linhas a Transformada de Hough e Transformada de Radon, utilizando diferentes algoritmos, em imagens aéreas e de sensoriamento remoto. O processo de análise de imagens, com diferentes abordagens leva a resultados variados em diferentes tipos de coberturas do solo. Tais resultados foram avaliados e comparados produzindo tabelas de eficiência para cada procedimento. Estas tabelas direcionam a diferentes encaminhamentos, que vão variar de abordagem dependendo do objetivo final da extração das Linhas de Transmissão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Redes embutidas (NoC, Network-on-Chip) vêm sendo adotadas como uma solução interessante para o projeto de infraestruturas de comunicação em sistemas embutidos (SoC, System-on-Chip). Estas redes são em geral parametrizadas, podendo assim ser utilizadas em vários projetos de SoCs, cada qual com diferentes quantidades de núcleos. NoCs permitem uma escalabilidade dos sistemas, ao mesmo tempo que balanceiam a comunicação entre núcleos. Projetos baseados em NoC visam a implementação de uma aplicação específica. Neste contexto, ferramentas de auxílio de projeto são essenciais. Estas ferramentas são projetadas para, a partir de uma descrição simples da aplicação, realizar sucessivos processos de otimização que irão modelar as várias características do sistema. Estes algoritmos de otimização são necessários para que a rede atenda a um conjunto de restrições, como área, consumo de energia e tempo de execução. Dentre estas etapas, pode ser incluído o roteamento estático. As rotas através da rede por onde os núcleos irão se comunicar são otimizadas, de forma a minimizar o tempo de comunicação e os atrasos na transmissão de pacotes ocasionados por congestionamentos nas chaves que compõem a NoC. Nesta dissertação, foi utilizada a otimização por colônia de formigas no cálculo dos percursos. Esta é uma meta-heurística interessante para a solução de problemas de busca em grafos, inspirada no comportamento de formigas reais. Para os algoritmos propostos, múltiplas colônias são utilizadas, cada uma encarregada pela otimização do percurso de uma mensagem. Os diferentes testes realizados mostram o roteamento baseado no Elitist Ant System obtendo resultados superiores a outros algoritmos de roteamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se a escrita pessoal precisa sobreviver como habilidade individual perante as novas técnicas de produção textual, parece-nos necessária uma análise da escrita manual sob uma nova perspectiva. Num universo regido pelas mídias tecnológicas, no qual o computador pode ser visto como uma verdadeira extensão do homem, qual o lugar da escrita manual na atualidade? E, ainda: acreditando que o design pode auxiliar o educador, de que forma o mesmo pode interferir na aquisição da escrita manual e na formação de uma escrita legível e funcional? O presente projeto de pesquisa procura lançar luzes sobre este tema a partir de uma síntese dos principais modelos de escrita adotados na educação fundamental no Brasil durante o século XX. Para tanto, vamos elencá-los e analisá-los buscando relações e pontos comuns entre esses modelos e apontando para uma reflexão futura, calcada no campo do design e, em especial, da tipografia, tendo a aquisição da escrita como pano de fundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um método para reconhecimento do padrão na biodisponibilidade do ferro, através da interação com substâncias que auxiliam a absorção como vitamina C e vitamina A e nutrientes inibidores como cálcio, fitato, oxalato, tanino e cafeína. Os dados foram obtidos através de inquérito alimentar, almoço e jantar, em crianças de 2 a 5 anos da única Creche Municipal de Paraty-RJ entre 2007 e 2008. A Análise de Componentes Principais (ACP) foi aplicada na seleção dos nutrientes e utilizou-se o Algoritmo Fuzzy C-Means (FCM) para criar os agrupamentos classificados de acordo com a biodisponibilidade do ferro. Uma análise de sensibilidade foi desenvolvida na tentativa de buscar quantidades limítrofes de cálcio a serem consumidas nas refeições. A ACP mostrou que no almoço os nutrientes que explicavam melhor a variabilidade do modelo foram ferro, vitamina C, fitato e oxalato, enquanto no jantar o cálcio se mostrou eficaz na determinação da variabilidade do modelo devido ao elevado consumo de leite e derivados. Para o almoço, a aplicação do FCM na interação dos nutrientes, notou-se que a ingestão de vitamina C foi determinante na classificação dos grupos. No jantar, a classificação de grupos foi determinada pela quantidade de ferro heme na interação com o cálcio. Na análise de sensibilidade realizada no almoço e no jantar, duas iterações do algoritmo determinaram a interferência total do cálcio na biodisponibilidade do ferro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é entender como o jogo narrativo de aventura para videogame consegue atrair e manter a atenção do jogador, imergindo-o no mundo ficcional, em face dos inúmeros estímulos existentes a sua volta. É sugerida uma definição para o jogo narrativo de aventura e a imersão e, posteriormente, estabelece-se uma relação entre elementos presentes nos jogos e as estruturas que atraem a atenção do indivíduo. Para isso, consultou-se material produzido pelas duas principais linhas de estudos de jogos: Narratologia e Ludologia. O conteúdo teórico foi comparado e exemplificado através da prática de diversos jogos, principalmente do console Sony Playstation 3. O próprio conceito de jogo narrativo, a prática dos jogos e a relação percebida entre seus elementos e as ferramentas para criar e manter a atenção revelaram que o videogame, através dos jogos narrativos de aventura, representa um potente meio para criar e manter o estado de imersão sobre o jogador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A formação inicial de professores se constitui como objeto desta tese. Na presente pesquisa pretendi planejar, implementar e avaliar a eficácia de um programa de formação inicial de professores para atuar com Tecnologia Assistiva, principalmente com a Comunicação Alternativa e Ampliada, por meio de metodologia problematizadora. Para responder à pergunta principal do estudo A formação inicial de professores para atuar com TA, principalmente com a CAA, através de metodologia problematizadora favorece a modificação das preconcepções sobre deficiência e práticas desses futuros professores? foi necessário conhecer as concepções dos alunos de Pedagogia, assim como envolvê-los no planejamento do curso. Outro elemento fundamental na proposta de formação foi a Metodologia da Problematização aplicada a questões educacionais , que estimula o trabalho reflexivo, criativo e colaborativo. A pesquisa foi desenvolvida em dois estudos, durante o período de agosto de 2008 a dezembro de 2010. Uma pesquisa ação foi desenvolvida com 37 alunos da graduação do curso de Pedagogia, duas professoras responsáveis pela disciplina, 26 alunos com deficiência sem fala articulada, com idades entre 8 e 32 anos, cinco professoras de uma escola especial da rede pública de ensino. Os estudos foram desenvolvidos na Faculdade de Educação da UERJ em salas de aula e no Laboratório de Tecnologia Assistiva/Comunicação Alternativa (Lateca) e numa escola especial. Foram utilizados questionários, filmagens, vídeos e vários recursos de tecnologia assistiva. Os procedimentos metodológicos foram os seguintes: 1. Aplicação de questionário com objetivo duplo caracterizar os graduandos de Pedagogia e apreender suas concepções a respeito de Educação Inclusiva, deficiência, TA e CAA. 2. Com base na análise dos questionários, levantei o perfil dos alunos, suas expectativas em relação a essa formação e as sugestões que direcionaram o planejamento e a implementação da oferta das aulas expositivas e das atividades práticas. 3. Oferta de aulas expositivas, acompanhadas de farto material audiovisual e do desenvolvimento de atividades práticas, que versaram sobre os seguintes temas: linguagem, comunicação e interação, deficiência, TA e CAA. 4. Os graduandos observaram, planejaram e desenvolveram uma proposta de intervenção direta para alunos com deficiência. Os estudos apontaram que houve modificação das concepções dos graduandos em relação aos conceitos de deficiência, TA e CAA. Os dados revelaram ainda que esse trabalho proporcionou aos graduandos uma oportunidade real de exercício da prática, com as seguintes características: partindo da observação da realidade de uma sala de aula ou sala de atendimento especializado, identificar problemas pedagógicos e escolher um deles como foco de uma investigação; refletir sobre os possíveis fatores e determinantes principais do problema selecionado e definir os pontos-chave do estudo; investigar esses pontos-chave; buscar informações em diversas fontes e analisá-las para responder ao problema, compondo, assim, a teorização; elaborar hipóteses de solução para o problema; e, por fim, aplicar uma ou mais das hipóteses de solução, como um retorno do estudo à realidade investigada. Verifiquei também, ao final do estudo, a imensa gama de recursos e estratégias de CAA, a adequação de material pedagógico e os recursos de acesso ao computador que foram criados pelos graduandos nesse atendimento aos alunos com deficiência. O estudo beneficiou, ainda, os professores e alunos da escola especial que, além de conhecer os recursos de TA e CAA, puderam vivenciar essa abordagem educacional diferenciada, proposta na formação inicial. Além disso, observei que os alunos com deficiência ampliaram as oportunidades de comunicação e interação social.