906 resultados para Algoritmos computacionales
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
250 p. + anexos
Resumo:
162 p.
Resumo:
Essa dissertação tem o objetivo de verificar a contribuição de diferentes abordagens para extração de linhas, à classificação de imagens multiespectrais, com o possível uso na discriminação e mapeamento de classes de cobertura da terra. Nesse contexto, é efetuada a comparação entre diferentes técnicas de extração de características para extração de linhas de transmissão em áreas rurais, a saber, técnicas de realce utilizando variação de contraste e filtragem morfológica, bem como detecção de bordas utilizando filtro Canny e detector SUSAN, citando como técnica de extração de linhas a Transformada de Hough e Transformada de Radon, utilizando diferentes algoritmos, em imagens aéreas e de sensoriamento remoto. O processo de análise de imagens, com diferentes abordagens leva a resultados variados em diferentes tipos de coberturas do solo. Tais resultados foram avaliados e comparados produzindo tabelas de eficiência para cada procedimento. Estas tabelas direcionam a diferentes encaminhamentos, que vão variar de abordagem dependendo do objetivo final da extração das Linhas de Transmissão.
Resumo:
Redes embutidas (NoC, Network-on-Chip) vêm sendo adotadas como uma solução interessante para o projeto de infraestruturas de comunicação em sistemas embutidos (SoC, System-on-Chip). Estas redes são em geral parametrizadas, podendo assim ser utilizadas em vários projetos de SoCs, cada qual com diferentes quantidades de núcleos. NoCs permitem uma escalabilidade dos sistemas, ao mesmo tempo que balanceiam a comunicação entre núcleos. Projetos baseados em NoC visam a implementação de uma aplicação específica. Neste contexto, ferramentas de auxílio de projeto são essenciais. Estas ferramentas são projetadas para, a partir de uma descrição simples da aplicação, realizar sucessivos processos de otimização que irão modelar as várias características do sistema. Estes algoritmos de otimização são necessários para que a rede atenda a um conjunto de restrições, como área, consumo de energia e tempo de execução. Dentre estas etapas, pode ser incluído o roteamento estático. As rotas através da rede por onde os núcleos irão se comunicar são otimizadas, de forma a minimizar o tempo de comunicação e os atrasos na transmissão de pacotes ocasionados por congestionamentos nas chaves que compõem a NoC. Nesta dissertação, foi utilizada a otimização por colônia de formigas no cálculo dos percursos. Esta é uma meta-heurística interessante para a solução de problemas de busca em grafos, inspirada no comportamento de formigas reais. Para os algoritmos propostos, múltiplas colônias são utilizadas, cada uma encarregada pela otimização do percurso de uma mensagem. Os diferentes testes realizados mostram o roteamento baseado no Elitist Ant System obtendo resultados superiores a outros algoritmos de roteamento.
Resumo:
[ES]Este documento va a estudiar el desarrollo de un método alternativo de análisis granulométrico de polvos metálicos de láser cladding por procesamiento digital de imágenes. El concepto de tamaño de partícula, la cual, normalmente, tiene forma irregular, es muy importante de cara a controlar de manera fiable ciertas fases de procesos industriales. Un buen control del tamaño de partícula y de su forma repercute en una mayor calidad del proceso y del producto final. Tradicionalmente, el análisis granulométrico en procesos industriales se ha realizado por el método de tamizado, un método mecánico que consiste en que la muestra de polvo atraviese sucesivamente mallas con orificios progresivamente decrecientes. En los últimos años, los avances tecnológicos han revolucionado los procesos industriales. En concreto, campos como la visión artificial han adquirido gran presencia por tener como ventajas una alta velocidad de operación, gran capacidad de aumento, funcionamiento las 24 horas del día o la repetitividad de las medidas. Su objetivo es normalmente comprobar la conformidad de una pieza de acuerdo a ciertos requisitos especificados. Se propone un método adaptado a las nuevas tecnologías. En concreto, se busca ganar en información, fiabilidad, rapidez y repetitividad respecto a los métodos granulométricos clásicos. Se van a desarrollar algoritmos de análisis haciendo uso de herramientas informáticas y el software comercial Matlab. En el análisis, se van a crear indicadores que permitan caracterizar la muestra con la mayor fiabilidad posible. Finalmente, se van a aplicar los métodos desarrollados en muestras de polvo reales y diversas para comprobar el buen funcionamiento del método.
Resumo:
169 p.
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
[ES]Este Trabajo Fin de Grado consiste en el diseño de una herramienta gráfica para el desarrollo de prácticas de laboratorio basadas en el procesado de señales electrocardiográficas (ECG) para la asignatura de Procesado de Señales Biomédicas. El proyecto se concreta en la aplicación de la herramienta para tres prácticas de laboratorio diferentes basadas en ECG, las cuales tendrán objetivos y técnicas de procesado diferentes. El objetivo final es que los docentes y los estudiantes sean capaces de trabajar con señales de ECG, analizar sus principales características y comprender distintas técnicas y algoritmos de procesado típicas de este ámbito.
Resumo:
[EU]Proiektu honen helburua sare ezberdinetan algoritmo metaheuristikoen erabileraren bitartez bideratze arazoak ebaztea eta aztertzea da. Helburu honetarako erabiliko diren algoritmoak Coral Reefs Optimization eta Firefly Algorithm dira. Bi algoritmoak Python erabiliz inplementatuko dira, baita sareak simulatzen dituen programa ere. Modu honetan, algoritmo bakoitzaren gaitasuna aztertuko da sareko bi punturen arteko bide bideragarri bat, zeinek ezarritako murrizketak betetzen dituen, aurkitzeko; prozesu hau ausaz sortutako simulatutako sare batean oinarrituz garatuko da. Honen bitartez, arazo honen ebazpenerako algoritmo bakoitza egokia den eta bietariko zein den egokiena ondorioztatu ahalko da.
Resumo:
[ES]El objetivo de este trabajo es el diseño e implementación de un complemento adicional a OpenFlow que permita la ejecución de los mensajes en el switch dentro de un espacio de tiempo concreto que previamente ha sido definido. El primer paso será la definición de objetivos y especificaciones del trabajo, para posteriormente realizar el diseño de un escenario mediante el análisis de posibles alternativas, y que permitirá la consecución de dichos objetivos. A continuación se añadirá el código necesario para que los equipos sean capaces de realizar el envío y ejecución de los mensajes en el tiempo programado y se finalizará realizando simulaciones y pruebas tanto del funcionamiento como del formato que utilizan los mensajes intercambiados entre el controlador y los switches que maneja, con el objetivo de verificar la viabilidad del módulo desarrollado.
Resumo:
Este trabalho apresenta um método para reconhecimento do padrão na biodisponibilidade do ferro, através da interação com substâncias que auxiliam a absorção como vitamina C e vitamina A e nutrientes inibidores como cálcio, fitato, oxalato, tanino e cafeína. Os dados foram obtidos através de inquérito alimentar, almoço e jantar, em crianças de 2 a 5 anos da única Creche Municipal de Paraty-RJ entre 2007 e 2008. A Análise de Componentes Principais (ACP) foi aplicada na seleção dos nutrientes e utilizou-se o Algoritmo Fuzzy C-Means (FCM) para criar os agrupamentos classificados de acordo com a biodisponibilidade do ferro. Uma análise de sensibilidade foi desenvolvida na tentativa de buscar quantidades limítrofes de cálcio a serem consumidas nas refeições. A ACP mostrou que no almoço os nutrientes que explicavam melhor a variabilidade do modelo foram ferro, vitamina C, fitato e oxalato, enquanto no jantar o cálcio se mostrou eficaz na determinação da variabilidade do modelo devido ao elevado consumo de leite e derivados. Para o almoço, a aplicação do FCM na interação dos nutrientes, notou-se que a ingestão de vitamina C foi determinante na classificação dos grupos. No jantar, a classificação de grupos foi determinada pela quantidade de ferro heme na interação com o cálcio. Na análise de sensibilidade realizada no almoço e no jantar, duas iterações do algoritmo determinaram a interferência total do cálcio na biodisponibilidade do ferro.
Resumo:
276 p.
Resumo:
Nesta Tese desenvolvemos várias abordagens "Darbouxianas"para buscar integrais primeiras (elementares e Liouvillianas) de equações diferenciais ordinárias de segunda ordem (2EDOs) racionais. Os algoritmos (semi-algoritmos) que desenvolvemos seguem a linha do trabalho de Prelle e Singer. Basicamente, os métodos que buscam integrais primeiras elementares são uma extensão da técnica desenvolvida por Prelle e Singer para encontrar soluções elementares de equações diferenciais ordinárias de primeira ordem (1EDOs) racionais. O procedimento que lida com 2EDOs racionais que apresentam integrais primeiras Liouvillianas é baseado em uma extensão ao nosso método para encontrar soluções Liouvillianas de 1EDOs racionais. A ideia fundamental por tras do nosso trabalho consiste em que os fatores integrantes para 1-formas polinomiais geradas pela diferenciação de funções elementares e Liouvillianas são formados por certos polinômios denominados polinômios de Darboux. Vamos mostrar como combinar esses polinômios de Darboux para construir fatores integrantes e, de posse deles, determinar integrais primeiras. Vamos ainda discutir algumas implementações computacionais dos semi-algoritmos.
Resumo:
Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.