1000 resultados para Algoritmo Científico. Computação Evolucionária. Metaheurísticas. Problema do Caixeiro Alugador


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O sistema WDM (Wavelength Division Multiplexing) é considerado como uma tecnologia madura para ser usada no backbone de redes ópticas. Entretanto, encontrar uma solução ótima para o algoritmo de atribuição de comprimento de onda no projeto e operação destas redes, ainda é uma questão em aberto. A pesquisa realizada nesta tese aborda os principais aspectos relacionados ao processo de atribuição de comprimento de onda em sistemas WDM, e como resultado foi proposta uma metodologia que minimiza a degradação do sinal óptico gerada pela modulação de fase cruzada (XPM – Cross-Phase Modulation). Esta proposta é composta por uma metodologia híbrida baseada em Coloração de Grafo e Algoritmo Genético (AG), sendo que o primeiro tem a função de reduzir o número de comprimentos de onda necessários para atender a matriz de tráfego (que é fornecida a priori) e o último tem a função de encontrar a ordem de ativação de canais na grade de comprimentos de onda, com o objetivo de reduzir o efeito XPM. A proposta foi comparada com o algoritmo First-Fit em diferentes cenários e topologias de redes, e demonstrou uma considerável redução na probabilidade de bloqueio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, propomos um modelo integrado de dimensionamento de lotes e programação da produção monomáquina para uma fábrica de refrigerantes de pequeno porte. As decisões de dimensionamento foram baseadas em um modelo encontrado na literatura e as decisões de sequenciamento foram modeladas utilizando restrições do problema do caixeiro viajante assimétrico. Para a validação do modelo proposto foram feitos testes computacionais com exemplares gerados aleatoriamente, e também exemplares baseados em dados reais obtidos da literatura. Os exemplares foram resolvidos pelo método Branch-and-Cut incluído no pacote computacional CPLEX 10.0. Os resultados mostram que o modelo proposto representa o planejamento da produção em fábricas de bebidas monomáquinas e que, em algumas situações, produz resultados melhores que o modelo da literatura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Humans have a high ability to extract visual data information acquired by sight. Trought a learning process, which starts at birth and continues throughout life, image interpretation becomes almost instinctively. At a glance, one can easily describe a scene with reasonable precision, naming its main components. Usually, this is done by extracting low-level features such as edges, shapes and textures, and associanting them to high level meanings. In this way, a semantic description of the scene is done. An example of this, is the human capacity to recognize and describe other people physical and behavioral characteristics, or biometrics. Soft-biometrics also represents inherent characteristics of human body and behaviour, but do not allow unique person identification. Computer vision area aims to develop methods capable of performing visual interpretation with performance similar to humans. This thesis aims to propose computer vison methods which allows high level information extraction from images in the form of soft biometrics. This problem is approached in two ways, unsupervised and supervised learning methods. The first seeks to group images via an automatic feature extraction learning , using both convolution techniques, evolutionary computing and clustering. In this approach employed images contains faces and people. Second approach employs convolutional neural networks, which have the ability to operate on raw images, learning both feature extraction and classification processes. Here, images are classified according to gender and clothes, divided into upper and lower parts of human body. First approach, when tested with different image datasets obtained an accuracy of approximately 80% for faces and non-faces and 70% for people and non-person. The second tested using images and videos, obtained an accuracy of about 70% for gender, 80% to the upper clothes and 90% to lower clothes. The results of these case studies, show that proposed methods are promising, allowing the realization of automatic high level information image annotation. This opens possibilities for development of applications in diverse areas such as content-based image and video search and automatica video survaillance, reducing human effort in the task of manual annotation and monitoring.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A tomada de decisão na saúde pode-se tornar um processo complexo e moroso. A complexidade associada ao processo de decisão na saúde advém da diversidade de opções clinicamente razoáveis, ou seja, nenhuma opção se sobrepõem _a outra, visto que cada uma possui os seus riscos e benefícios, que são normalmente interpretados de modo diferente entre os indivíduos. Desta forma, cabe ao paciente e _a sua equipa médica optarem pela opção que melhor se enquadra na situação clínica do paciente Para tornar este processo menos complexo, cada vez mais se utiliza as chamadas "ferramentas de decisão", que se caraterizam por fornecer informação sobre as diferentes opções clínicas, traduzindo-se numa diminuição da dificuldade da tomada de decisão. De uma forma geral, as ferramentas de decisão são desenvolvidas com o intuito de facilitar a tomada de decisão, através do aumento do conhecimento científico sobre um determinado problema (tomada de decisão informada) e uma mudança de atitude do paciente face aos seus cuidados de saúde. Na realização da presente dissertação foi desenvolvido um sistema de informação na web, que engloba informação relativa ao rastreio do cancro da próstata. Este sistema também surge acoplado a um conjunto de componentes de decisão, que têm como objetivo auxiliar os indivíduos no processo de decisão para a realização do rastreio do cancro da próstata, assim como a prevenção de doenças relacionadas com a próstata. A implementação desta aplicação web teve como base as necessidades do indivíduo, ou seja informações clínicas sobre possíveis riscos e benefícios associados ao rastreio, assim como fornecer uma maior interatividade com o utilizador. A primeira versão da aplicação já foi testada e avaliada através da participação de um conjunto de indivíduos que compõem o público-alvo para este tipo de aplicações. Os resultados obtidos permitiram concluir que os requisitos definidos para esta aplicação, permitem o aumento do conhecimento do indivíduo e o auxílio na tomada de decisão para a realização do rastreio do cancro da próstata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A computação voluntária tem vindo a ganhar uma importância crescente devido a capacidade de computação disponível actualmente nos computadores pessoais. Para muitos trabalhos científicos estima-se que esta estratégia possa complementar (ou até substituir) a necessidade de grandes investimentos em infra-estruturas de computação de elevado desempenho. Esta forma de computação surgiu em 1996 com o projecto GIMPS que consistia na procura computorizada de grandes números primos, utilizando a fórmula de Mersenne, 2p-1, em que “p” representa o número primo. Qualquer pessoa com computador e com uma ligação a Internet podia instalar o programa cliente do GIMPS e participar no projecto disponibilizando poder de computação durante períodos de tempo de não utilização. Seguindo esta analogia seguiram-se os projectos distributed.net em 1997 e SETI@home em 1999, sendo este último o mais popular de todos. Com base neste paradigma de computação muitos projectos de investigação científica foram desenvolvidos, trabalhos na área da física, astronomia, matemática, biologia molecular, normalmente ligados a instituições universitárias que podem beneficiar desta forma de computação, o principal problema é saber como fazer isso e que tecnologias utilizar. Para solucionar esse problema foram propostos protótipos, utilizando as tecnologias BOINC, Condor e Hadoop, onde se pôde avaliar a oportunidade da introdução destes serviços em Instituições Universitárias. Para este fim foram realizados alguns testes nos sistemas implementados com as tecnologias já referidas e definida uma matriz de comparação destas tecnologias focando em características que definem um sistema distribuído.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Matemática Universitária - IGCE

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we propose a hybrid methodology based on Graph-Coloring and Genetic Algorithm (GA) to solve the Wavelength Assignment (WA) problem in optical networks, impaired by physical layer effects. Our proposal was developed for a static scenario where the physical topology and traffic matrix are known a priori. First, we used fixed shortest-path routing to attend demand requests over the physical topology and the graph-coloring algorithm to minimize the number of necessary wavelengths. Then, we applied the genetic algorithm to solve WA. The GA finds the wavelength activation order on the wavelengths grid with the aim of reducing the Cross-Phase Modulation (XPM) effect; the variance due to the XPM was used as a function of fitness to evaluate the feasibility of the selected WA solution. Its performance is compared with the First-Fit algorithm in two different scenarios, and has shown a reduction in blocking probability up to 37.14% when considered both XPM and residual dispersion effects and up to 71.42% when only considered XPM effect. Moreover, it was possible to reduce by 57.14% the number of wavelengths.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A oportunidade de produção de biomassa microalgal tem despertado interesse pelos diversos destinos que a mesma pode ter, seja na produção de bioenergia, como fonte de alimento ou servindo como produto da biofixação de dióxido de carbono. Em geral, a produção em larga escala de cianobactérias e microalgas é feita com acompanhamento através de análises físicoquímicas offline. Neste contexto, o objetivo deste trabalho foi monitorar a concentração celular em fotobiorreator raceway para produção de biomassa microalgal usando técnicas de aquisição digital de dados e controle de processos, pela aquisição de dados inline de iluminância, concentração de biomassa, temperatura e pH. Para tal fim foi necessário construir sensor baseado em software capaz de determinar a concentração de biomassa microalgal a partir de medidas ópticas de intensidade de radiação monocromática espalhada e desenvolver modelo matemático para a produção da biomassa microalgal no microcontrolador, utilizando algoritmo de computação natural no ajuste do modelo. Foi projetado, construído e testado durante cultivos de Spirulina sp. LEB 18, em escala piloto outdoor, um sistema autônomo de registro de informações advindas do cultivo. Foi testado um sensor de concentração de biomassa baseado na medição da radiação passante. Em uma segunda etapa foi concebido, construído e testado um sensor óptico de concentração de biomassa de Spirulina sp. LEB 18 baseado na medição da intensidade da radiação que sofre espalhamento pela suspensão da cianobactéria, em experimento no laboratório, sob condições controladas de luminosidade, temperatura e fluxo de suspensão de biomassa. A partir das medidas de espalhamento da radiação luminosa, foi construído um sistema de inferência neurofuzzy, que serve como um sensor por software da concentração de biomassa em cultivo. Por fim, a partir das concentrações de biomassa de cultivo, ao longo do tempo, foi prospectado o uso da plataforma Arduino na modelagem empírica da cinética de crescimento, usando a Equação de Verhulst. As medidas realizadas no sensor óptico baseado na medida da intensidade da radiação monocromática passante através da suspensão, usado em condições outdoor, apresentaram baixa correlação entre a concentração de biomassa e a radiação, mesmo para concentrações abaixo de 0,6 g/L. Quando da investigação do espalhamento óptico pela suspensão do cultivo, para os ângulos de 45º e 90º a radiação monocromática em 530 nm apresentou um comportamento linear crescente com a concentração, apresentando coeficiente de determinação, nos dois casos, 0,95. Foi possível construir um sensor de concentração de biomassa baseado em software, usando as informações combinadas de intensidade de radiação espalhada nos ângulos de 45º e 135º com coeficiente de determinação de 0,99. É factível realizar simultaneamente a determinação inline de variáveis do processo de cultivo de Spirulina e a modelagem cinética empírica do crescimento do micro-organismo através da equação de Verhulst, em microcontrolador Arduino.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This work seeks to propose and evaluate a change to the Ant Colony Optimization based on the results of experiments performed on the problem of Selective Ride Robot (PRS, a new problem, also proposed in this paper. Four metaheuristics are implemented, GRASP, VNS and two versions of Ant Colony Optimization, and their results are analyzed by running the algorithms over 32 instances created during this work. The metaheuristics also have their results compared to an exact approach. The results show that the algorithm implemented using the GRASP metaheuristic show good results. The version of the multicolony ant colony algorithm, proposed and evaluated in this work, shows the best results