817 resultados para Otimização com restrições


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Mecânica - FEG

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta contribuições à algumas modalidades de gerenciamento de espectro em redes DSL que tem recebido pouca atenção na literatura : minimização de potência e maximização de margem de ruído. Com relação a minimização de potência, cerca de 60% da potência total consumida pelos modems DSL é utilizada na transmissão. A contribuição dessa dissertação nesse âmbito foi provar matematicamente que os algoritmos de maximização de taxa também podem ser usados para minimizar potência. Dessa forma, praticamente se elimina o atraso histórico entre o estado da arte em maximização de taxa e minimização de potência, colocando-os no mesmo nível de desenvolvimento. A segunda contribuição dessa dissertação é sobre a modalidade de maximização de margem de ruído, de modo a otimizar a estabilidade de redes DSL. Nessa linha de pesquisa, essa dissertação apresenta um novo alogoritmo para a maximização de margem multiusuário, que apresenta desempenho superior a um algoritmo publicado anteriormente na literatura especializada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese de doutorado propõe uma formulação matemática para simulação de roteamento e alocação de comprimentos de onda em redes ópticas, sem a inclusão de restrições que não são inerentes ao problema básico e com o objetivo de ser aplicável a qualquer tipo de rede óptica com tráfego de demanda estática. O estabelecimento de uma rota seguida da seleção de um comprimento de onda é um dos pontos chave para o bom funcionamento de uma rede óptica, pois influencia na forma como os recursos da rede serão gerenciados. Assim, o processo de roteamento e alocação de comprimentos de onda em redes ópticas, conhecido como RWA (Routing and Wavelength Assignment), necessita de soluções que busquem a sua otimização. Entretanto, a despeito dos inúmeros estudos com o objetivo de otimizar o processo RWA, observa-se que não há, a priori, nenhuma solução que possa levar a uma padronização do referido processo. Considerando que a padronização é desejável na consolidação do uso de qualquer tecnologia, a Tese descrita neste trabalho é uma Função de Objetivo Genérico (FOG) que trata do processo de roteamento e alocação de comprimentos de onda, visando estabelecer uma base a partir da qual seja possível desenvolver um padrão ou vários padrões para redes ópticas. A FOG foi testada, via simulação, no processo de alocação de comprimentos de onda do inglês, Wavelength Assignment e no processo RWA como um todo. Em ambos os casos, os testes foram realizados considerando redes opacas, trazendo resultados surpreendentes, considerando a simplicidade da solução para um problema não trivial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A eficiência espectral em redes baseadas na tecnologia de Rádio Cognitivo (RC) pode ser comprometida caso o rádio seja utilizado por muito tempo para a detecção em vez da transmissão de dados. Por isso, tornam-se necessários esquemas de sensoriamento que tenham o objetivo de obter o máximo possível de utilização do espectro, evitando sensoriamento desnecessário, bem como, obtendo o mínimo de interferência na transmissão do usuário primário decorrente de detecção incorreta de sua transmissão. Neste trabalho, propomos a utilização de Algoritmos Genéticos para realizar a adaptação do período de sensoriamento. O objetivo é obter um período de sensoriamento ótimo para os canais com vistas a maximizar a descoberta de oportunidades no espectro e minimizar o overhead decorrente do sensoriamento. A maioria dos trabalhos relacionados a este assunto considera que o overhead de sensoriamento é fixo, não levando em conta que alguns canais podem ter menor tolerância à interferência que outros. A proposta apresentada neste trabalho pode adaptar-se aos requisitos de tolerância à interferência no canal licenciado por meio da determinação de um período de sensoriamento que otimize as oportunidades para qualquer valor de overhead definido. Nossa proposta consegue obter um ganho de até 90% em relação às técnicas não otimizadas no número de oportunidades encontradas, até 40,9% no ganho de transmissão útil e obteve uma redução no tempo de interferência de 66,83%, bem como resultados similares aos obtidos por uma proposta otimizada presente na literatura, com a vantagem de permitir a adaptação do overhead de sensoriamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta os algoritmos considerados estado-da-arte para gerenciamento dinâmico de espectro (DSM). As técnicas de otimização utilizadas nos algoritmos DSM são abordadas e brevemente discutidas para melhor entendimento, descrição e comparação dos algoritmos. A análise comparativa entre os algoritmos foi realizada considerando o ganho em taxa (kbps) obtido em simulações. Para tanto, foi realizado em laboratório um conjunto de medições de função de transferência direta e de acoplamento, posteriormente utilizadas nas simulações dos algoritmos IWF, ISB e SCALE. Os resultados obtidos nas simulações através do uso das funções de transferência medidas mostraram melhor desempenho quando comparados aos demais resultados ao considerar funções de transferência obtidas a partir do padrão 1% pior caso, resultado este reflexo da aproximação 1% em que os pares apresentam maiores níveis de crosstalk em todas as frequências da função de transferência. Dentre os algoritmos comparados, o ISB e SCALE obtiveram desempenho semelhante em canais padronizados, ficando o IWF com o desempenho próximo ao SSM. No entanto, nas simulações em cenários com canais medidos, os três algoritmos tiveram ganhos muito próximo devido ao baixo nível de crosstalk.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em muitos problemas de otimização há dificuldades em alcançar um resultado ótimo ou mesmo um resultado próximo ao valor ótimo em um tempo viável, principalmente quando se trabalha em grande escala. Por isso muitos desses problemas são abordados por heurísticas ou metaheurísticas que executam buscas por melhores soluções dentro do espaço de busca definido. Dentro da computação natural estão os Algoritmos Culturais e os Algoritmos Genéticos, que são considerados metaheurísticas evolutivas que se complementam devido ao mecanismo dual de herança cultura/genética. A proposta do presente trabalho é estudar e utilizar tais mecanismos acrescentando tanto heurísticas de busca local como multipopulações aplicados em problemas de otimização combinatória (caixeiro viajante e mochila), funções multimodais e em problemas restritos. Serão executados alguns experimentos para efetuar uma avaliação em relação ao desempenho desses mecanismos híbridos e multipopulacionais com outros mecanismos dispostos na literatura de acordo com cada problema de otimização aqui abordado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a otimização da largura de banda de antenas linear e planar para aplicações em sistemas de banda larga. Nesse sentido, foi feito um estudo das técnicas de análise, aumento da largura de banda e otimização adequadas para o problema em questão. Como técnica de análise, foi utilizado o método dos momentos, o qual está apresentado no capítulo II. Para aumentar a largura de banda, foram utilizadas as técnicas de colocação de elementos parasitas e construção de fendas no radiador, descritos sucintamente no capítulo III. Como algoritmo de otimização, foi utilizado o algoritmo genético, descrito sucintamente no capítulo II. Neste trabalho, são apresentadas duas propostas de antenas, uma antena dipolo linear combinada com quatros espiras parasitas, capítulo IV, e uma antena planar do tipo espira, capítulo V. No primeiro caso, foram utilizados elementos parasitas e o algoritmo genético para aumentar a largura de banda e, no segundo, foram empregadas fendas no radiador e a otimização paramétrica para este objetivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Microbiologia Agropecuária - FCAV

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Ciências Biológicas (Microbiologia Aplicada) - IBRC

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Devido ao auge do crescimento industrial na Região Norte e, em especial, o Pólo Industrial de Manaus (PIM), são necessários obter ferramentas matemáticas que facilitem ao especialista tomar decisões sobre a seleção e dimensionamento dos filtros harmônicos que proporcionam neutralizar os efeitos prejudiciais dos harmônicos gerados pelas cargas não lineares da indústria e alcançar conformidade com os padrões das normas de qualidade de energia correspondentes. Além disso, como os filtros harmônicos passivos têm a capacidade de gerar potência reativa à rede, estes meios são eficazes compensadores de potência reativa e, portanto, podem conseguir uma economia significativa no faturamento de energia elétrica consumida por essas instalações industriais. Esta tese tem como objetivo geral desenvolver um método matemático e uma ferramenta computacional para a seleção da configuração e parâmetros do projeto de um conjunto de filtros harmônicos passivos para sistemas elétricos industriais. Nesta ótica, o problema de otimização da compensação de harmônicos por meio de filtros passivos foi formulado como um problema multiobjetivo que considera tanto os objetivos da redução da distorção harmônica como da efetividade econômica do projeto considerando as características das tarifas brasileiras. Todavia, a formulação apresentada considera as restrições relevantes impostas pelas normas brasileiras e estrangeiras. A solução computacional para este problema foi conseguida, usando o algoritmo genético NSGA-II que determina um conjunto de soluções ótimas de Pareto (Fronteira) que permitem ao projetista escolher as soluções mais adequadas para o problema. Por conseguinte, a ferramenta computacional desenvolvida tem várias novidades como: não só calcula os parâmetros que caracterizam os filtros, como também seleciona o tipo de configuração e o número de ramos do filtro em cada barra candidata de acordo com um conjunto de configurações pré-estabelecidas; têm implementada duas normas para a avaliação das restrições de qualidade de energia (Prodist-Módulo 8 e IEEE 519-92) que podem ser selecionadas pelo usuário; determina soluções com bons indicadores de desempenho para vários cenários característicos e não característicos do sistema que permitem a representação das as variações diárias da carga; das variações dos parâmetros do sistema e dos filtros; avalia o custo das contas de energia numa rede elétrica industrial que tem diferentes condições de operação (cenários característicos); e avalia o efeito econômico de filtros de harmônicos como compensadores de potência reativa. Para desenvolver a ferramenta computacional adequada desta tese, foi empregado um modelo trifásico em coordenadas de fase para redes de energia elétrica industriais e de serviços onde foram feitos vários programas utilizando várias ferramentas computacionais adicionais. Estas ferramentas compreendem um programa de varredura de freqüência, um programa do fluxo de harmônicos por injeção de correntes e um programa de fluxo de potência à freqüência fundamental. Os resultados positivos desta tese, a partir da análise de vários exemplos práticos, mostram as vantagens do método desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As Redes de Sensores Sem Fio possuem capacidades limitadas de processamento, armazenamento, comunicação (largura de banda) e fonte de energia, além de possuírem características e requisitos básicos de uma RSSF como: necessidade de se auto-organizar, comunicação com difusão de curto alcance e roteamento com múltiplos saltos. Neste trabalho é proposto uma ferramenta que otimize o posicionamento e os pacotes entregues através do uso de Algoritmo Genético (AG). Para solucionar o problema de roteamento que melhore o consumo de energia e maximize a agregação de dados é proposto a utilização de lógica fuzzy no protocolo de roteamento Ad hoc Ondemand Distance Vector (AODV). Esta customização é intitulada AODV – Fuzzy for Wireless Sensor Networks (AODV-FWSN). Os resultados mostram que a solução proposta é eficiente e consegue prolongar a vida útil da RSSF e melhorar a taxa de entrega de dados quando comparado com soluções similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa-se experimentalmente o processo de extração do óleo essencial de rizomas de priprioca (Cyperus articulatus L.) por arraste com vapor d’água saturado, em um protótipo em escala de bancada. Por meio de experimentos estatisticamente planejados, estimam-se as condições ótimas o processo de modo a maximizar as variáveis de resposta rendimento em óleo e teor de mustacona, componente majoritário do óleo essencial de priprioca, em função de variáveis operacionais de entrada do processo. As variáveis independentes e respectivos níveis são: carga de rizomas de priprioca, em gramas (64, 200, 400, 600, 736); granulometria dos rizomas, em milímetros (0,61; 1,015; 1,6; 2,19; 2,58) e tempo de extração, em minutos (40, 60, 90, 120, 140). Utilizando um planejamento composto central, com auxílio do aplicativo Statistica® 7.0, são propostos modelos matemáticos para as respostas em função das variáveis independentes isoladas e de suas combinações. Constata-se que o rendimento em óleo essencial e os teores de mustacona podem ser estimados adequadamente por modelos polinomiais de segunda ordem. São obtidos simultaneamente maiores rendimentos em óleo e teores de mustacona, quando a carga de rizomas varia de 105 a 400 gramas para tempos de extração compreendidos entre 105 e 140 minutos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante o processo de extração do conhecimento em bases de dados, alguns problemas podem ser encontrados como por exemplo, a ausência de determinada instância de um atributo. A ocorrência de tal problemática pode causar efeitos danosos nos resultados finais do processo, pois afeta diretamente a qualidade dos dados a ser submetido a um algoritmo de aprendizado de máquina. Na literatura, diversas propostas são apresentadas a fim de contornar tal dano, dentre eles está a de imputação de dados, a qual estima um valor plausível para substituir o ausente. Seguindo essa área de solução para o problema de valores ausentes, diversos trabalhos foram analisados e algumas observações foram realizadas como, a pouca utilização de bases sintéticas que simulem os principais mecanismos de ausência de dados e uma recente tendência a utilização de algoritmos bio-inspirados como tratamento do problema. Com base nesse cenário, esta dissertação apresenta um método de imputação de dados baseado em otimização por enxame de partículas, pouco explorado na área, e o aplica para o tratamento de bases sinteticamente geradas, as quais consideram os principais mecanismos de ausência de dados, MAR, MCAR e NMAR. Os resultados obtidos ao comprar diferentes configurações do método à outros dois conhecidos na área (KNNImpute e SVMImpute) são promissores para sua utilização na área de tratamento de valores ausentes uma vez que alcançou os melhores valores na maioria dos experimentos realizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.