21 resultados para Otimização topográfica

em Universidade Federal do Pará


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta o estudo do processo de estruturação organizacional e produtiva de uma empresa pública do setor da habitação, a Companhia de Habitação do Estado do Pará COHAB/PA, visando avaliar a eficiência de seus processos e a eficácia de seus custos de produção, na implantação de serviços de infra-estrutura urbana em assentamentos habitacionais na Região Metropolitana de Belém. A partir de uma abordagem contextual da política pública, produção habitacional e das emergências de novas metodologias organizacionais se estabelece o arcabouço teórico para o estudo da gestão estratégica e para análise dos seus custos de produção. A metodologia utilizada permitiu estabelecer a correlação entre o desempenho organizacional e o produtivo com a construção de indicadores obtidos por meio da análise empírica, qualitativa e avaliativa do objeto. Os resultados obtidos acerca do desempenho organizacional são relevantes, principalmente, por trabalhar no ambiente intra-organizacional, transformações de natureza cultural, além de transparecer a importância do redimensionamento dos processos. Os resultados obtidos acerca do desempenho produtivo mostram os avanços ocorridos no setor produtivo da empresa, entretanto, revela que existe uma defasagem entre o desempenho organizacional e o produtivo, e que se traduz, substancialmente, nos elementos de custos e de projetos dos assentamentos habitacionais providos com os serviços de infra-estrutura urbana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A investigação de métodos, técnicas e ferramentas que possam apoiar os processos decisórios em sistemas elétricos de potência, em seus vários setores, é um tema que tem despertado grande interesse. Esse suporte à decisão pode ser efetivado mediante o emprego de vários tipos de técnicas, com destaque para aquelas baseadas em inteligência computacional, face à grande aderência das mesmas a domínios com incerteza. Nesta tese, são utilizadas as redes Bayesianas para a extração de modelos de conhecimento a partir dos dados oriundos de sistemas elétricos de potência. Além disso, em virtude das demandas destes sistemas e de algumas limitações impostas às inferências em redes bayesianas, é desenvolvido um método original, utilizando algoritmos genéticos, capaz de estender o poder de compreensibilidade dos padrões descobertos por essas redes, por meio de um conjunto de procedimentos de inferência em redes bayesianas para a descoberta de cenários que propiciem a obtenção de um valor meta, considerando a incorporação do conhecimento a priori do especialista, a identificação das variáveis mais influentes para obtenção desses cenários e a busca de cenários ótimos que estabeleçam valores, definidos e ponderados pelo usuário/especialista, para mais de uma variável meta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na presente tese propõe-se uma metodologia de ajuste ótimo dos controladores do conversor interligado ao rotor de aerogeradores de indução duplamente excitados (DFIG), utilizando algoritmos genéticos (AG), com o objetivo de melhorar a segurança e a robustez do sistema elétrico de potência, permitindo que os aerogeradores DFIG participem da gestão técnica do sistema. Para garantir este objetivo, é utilizada uma estratégia de proteção do tipo “crow-bar” durante a falta, mantendo o conversor interligado ao rotor conectado à máquina. Imediatamente após a eliminação da falta, o “crow-bar” é desativado, e simultaneamente os controladores ótimos do conversor interligado ao rotor são acionados, previamente ajustados pelo AG, a fim de melhorar a capacidade de sobrevivência a afundamentos de tensão “ridethrough capability” e a margem de estabilidade global do sistema elétrico. Para validação da metodologia ótima desenvolvida foram realizadas simulações computacionais utilizando uma rede elétrica real, em três condições operacionais distintas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta contribuições à algumas modalidades de gerenciamento de espectro em redes DSL que tem recebido pouca atenção na literatura : minimização de potência e maximização de margem de ruído. Com relação a minimização de potência, cerca de 60% da potência total consumida pelos modems DSL é utilizada na transmissão. A contribuição dessa dissertação nesse âmbito foi provar matematicamente que os algoritmos de maximização de taxa também podem ser usados para minimizar potência. Dessa forma, praticamente se elimina o atraso histórico entre o estado da arte em maximização de taxa e minimização de potência, colocando-os no mesmo nível de desenvolvimento. A segunda contribuição dessa dissertação é sobre a modalidade de maximização de margem de ruído, de modo a otimizar a estabilidade de redes DSL. Nessa linha de pesquisa, essa dissertação apresenta um novo alogoritmo para a maximização de margem multiusuário, que apresenta desempenho superior a um algoritmo publicado anteriormente na literatura especializada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo apresentar um método para solucionar o problema de mapeamento entre as soluções teóricas de gerenciamento dinâmico de espectro (DSM) e os parâmetros de controle das densidades espectrais de potência (PSDs) de transmissão dos modems comerciais. O método utiliza algoritmos genéticos (AG) codificado em inteiros para solucionar o problema. O AG é responsável por achar os melhores parâmetros para representar uma PSD arbitrária, considerando as restrições impostas pelos equipamentos e padrões atuais DSL. O trabalho apresenta ainda um estudo comparativo do método proposto com um concorrente, além de estudo estatístico do método proposto, considerando média, desvio padrão e intervalo de confiança. Adicionalmente, são apresentados dois setups para uso em laboratório, sendo um para medição de PSDs e o outro para funções de transferência, os quais podem ser reaproveitados em outros trabalhos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A eficiência espectral em redes baseadas na tecnologia de Rádio Cognitivo (RC) pode ser comprometida caso o rádio seja utilizado por muito tempo para a detecção em vez da transmissão de dados. Por isso, tornam-se necessários esquemas de sensoriamento que tenham o objetivo de obter o máximo possível de utilização do espectro, evitando sensoriamento desnecessário, bem como, obtendo o mínimo de interferência na transmissão do usuário primário decorrente de detecção incorreta de sua transmissão. Neste trabalho, propomos a utilização de Algoritmos Genéticos para realizar a adaptação do período de sensoriamento. O objetivo é obter um período de sensoriamento ótimo para os canais com vistas a maximizar a descoberta de oportunidades no espectro e minimizar o overhead decorrente do sensoriamento. A maioria dos trabalhos relacionados a este assunto considera que o overhead de sensoriamento é fixo, não levando em conta que alguns canais podem ter menor tolerância à interferência que outros. A proposta apresentada neste trabalho pode adaptar-se aos requisitos de tolerância à interferência no canal licenciado por meio da determinação de um período de sensoriamento que otimize as oportunidades para qualquer valor de overhead definido. Nossa proposta consegue obter um ganho de até 90% em relação às técnicas não otimizadas no número de oportunidades encontradas, até 40,9% no ganho de transmissão útil e obteve uma redução no tempo de interferência de 66,83%, bem como resultados similares aos obtidos por uma proposta otimizada presente na literatura, com a vantagem de permitir a adaptação do overhead de sensoriamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta os algoritmos considerados estado-da-arte para gerenciamento dinâmico de espectro (DSM). As técnicas de otimização utilizadas nos algoritmos DSM são abordadas e brevemente discutidas para melhor entendimento, descrição e comparação dos algoritmos. A análise comparativa entre os algoritmos foi realizada considerando o ganho em taxa (kbps) obtido em simulações. Para tanto, foi realizado em laboratório um conjunto de medições de função de transferência direta e de acoplamento, posteriormente utilizadas nas simulações dos algoritmos IWF, ISB e SCALE. Os resultados obtidos nas simulações através do uso das funções de transferência medidas mostraram melhor desempenho quando comparados aos demais resultados ao considerar funções de transferência obtidas a partir do padrão 1% pior caso, resultado este reflexo da aproximação 1% em que os pares apresentam maiores níveis de crosstalk em todas as frequências da função de transferência. Dentre os algoritmos comparados, o ISB e SCALE obtiveram desempenho semelhante em canais padronizados, ficando o IWF com o desempenho próximo ao SSM. No entanto, nas simulações em cenários com canais medidos, os três algoritmos tiveram ganhos muito próximo devido ao baixo nível de crosstalk.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em muitos problemas de otimização há dificuldades em alcançar um resultado ótimo ou mesmo um resultado próximo ao valor ótimo em um tempo viável, principalmente quando se trabalha em grande escala. Por isso muitos desses problemas são abordados por heurísticas ou metaheurísticas que executam buscas por melhores soluções dentro do espaço de busca definido. Dentro da computação natural estão os Algoritmos Culturais e os Algoritmos Genéticos, que são considerados metaheurísticas evolutivas que se complementam devido ao mecanismo dual de herança cultura/genética. A proposta do presente trabalho é estudar e utilizar tais mecanismos acrescentando tanto heurísticas de busca local como multipopulações aplicados em problemas de otimização combinatória (caixeiro viajante e mochila), funções multimodais e em problemas restritos. Serão executados alguns experimentos para efetuar uma avaliação em relação ao desempenho desses mecanismos híbridos e multipopulacionais com outros mecanismos dispostos na literatura de acordo com cada problema de otimização aqui abordado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a otimização da largura de banda de antenas linear e planar para aplicações em sistemas de banda larga. Nesse sentido, foi feito um estudo das técnicas de análise, aumento da largura de banda e otimização adequadas para o problema em questão. Como técnica de análise, foi utilizado o método dos momentos, o qual está apresentado no capítulo II. Para aumentar a largura de banda, foram utilizadas as técnicas de colocação de elementos parasitas e construção de fendas no radiador, descritos sucintamente no capítulo III. Como algoritmo de otimização, foi utilizado o algoritmo genético, descrito sucintamente no capítulo II. Neste trabalho, são apresentadas duas propostas de antenas, uma antena dipolo linear combinada com quatros espiras parasitas, capítulo IV, e uma antena planar do tipo espira, capítulo V. No primeiro caso, foram utilizados elementos parasitas e o algoritmo genético para aumentar a largura de banda e, no segundo, foram empregadas fendas no radiador e a otimização paramétrica para este objetivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As Redes de Sensores Sem Fio possuem capacidades limitadas de processamento, armazenamento, comunicação (largura de banda) e fonte de energia, além de possuírem características e requisitos básicos de uma RSSF como: necessidade de se auto-organizar, comunicação com difusão de curto alcance e roteamento com múltiplos saltos. Neste trabalho é proposto uma ferramenta que otimize o posicionamento e os pacotes entregues através do uso de Algoritmo Genético (AG). Para solucionar o problema de roteamento que melhore o consumo de energia e maximize a agregação de dados é proposto a utilização de lógica fuzzy no protocolo de roteamento Ad hoc Ondemand Distance Vector (AODV). Esta customização é intitulada AODV – Fuzzy for Wireless Sensor Networks (AODV-FWSN). Os resultados mostram que a solução proposta é eficiente e consegue prolongar a vida útil da RSSF e melhorar a taxa de entrega de dados quando comparado com soluções similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa-se experimentalmente o processo de extração do óleo essencial de rizomas de priprioca (Cyperus articulatus L.) por arraste com vapor d’água saturado, em um protótipo em escala de bancada. Por meio de experimentos estatisticamente planejados, estimam-se as condições ótimas o processo de modo a maximizar as variáveis de resposta rendimento em óleo e teor de mustacona, componente majoritário do óleo essencial de priprioca, em função de variáveis operacionais de entrada do processo. As variáveis independentes e respectivos níveis são: carga de rizomas de priprioca, em gramas (64, 200, 400, 600, 736); granulometria dos rizomas, em milímetros (0,61; 1,015; 1,6; 2,19; 2,58) e tempo de extração, em minutos (40, 60, 90, 120, 140). Utilizando um planejamento composto central, com auxílio do aplicativo Statistica® 7.0, são propostos modelos matemáticos para as respostas em função das variáveis independentes isoladas e de suas combinações. Constata-se que o rendimento em óleo essencial e os teores de mustacona podem ser estimados adequadamente por modelos polinomiais de segunda ordem. São obtidos simultaneamente maiores rendimentos em óleo e teores de mustacona, quando a carga de rizomas varia de 105 a 400 gramas para tempos de extração compreendidos entre 105 e 140 minutos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante o processo de extração do conhecimento em bases de dados, alguns problemas podem ser encontrados como por exemplo, a ausência de determinada instância de um atributo. A ocorrência de tal problemática pode causar efeitos danosos nos resultados finais do processo, pois afeta diretamente a qualidade dos dados a ser submetido a um algoritmo de aprendizado de máquina. Na literatura, diversas propostas são apresentadas a fim de contornar tal dano, dentre eles está a de imputação de dados, a qual estima um valor plausível para substituir o ausente. Seguindo essa área de solução para o problema de valores ausentes, diversos trabalhos foram analisados e algumas observações foram realizadas como, a pouca utilização de bases sintéticas que simulem os principais mecanismos de ausência de dados e uma recente tendência a utilização de algoritmos bio-inspirados como tratamento do problema. Com base nesse cenário, esta dissertação apresenta um método de imputação de dados baseado em otimização por enxame de partículas, pouco explorado na área, e o aplica para o tratamento de bases sinteticamente geradas, as quais consideram os principais mecanismos de ausência de dados, MAR, MCAR e NMAR. Os resultados obtidos ao comprar diferentes configurações do método à outros dois conhecidos na área (KNNImpute e SVMImpute) são promissores para sua utilização na área de tratamento de valores ausentes uma vez que alcançou os melhores valores na maioria dos experimentos realizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo geral desenvolver uma metodologia sistemática para a inversão de dados de reflexão sísmica em arranjo ponto-médio-comum (PMC), partindo do caso 1D de variação vertical de velocidade e espessura que permite a obtenção de modelos de velocidades intervalares, vint,n, as espessuras intervalares, zn, e as velocidades média-quadrática, vRMS,n, em seções PMC individualizadas. Uma consequência disso é a transformação direta destes valores do tempo para profundidade. Como contribuição a análise de velocidade, foram desenvolvidos dois métodos para atacar o problema baseado na estimativa de velocidade intervalar. O primeiro método foi baseado na marcação manual em seções PMC, e inversão por ajuste de curvas no sentido dos quadrados-mínimos. O segundo método foi baseado na otimização da função semblance para se obter uma marcação automática. A metodologia combinou dois tipos de otimização: um Método Global (Método Price ou Simplex), e um Método Local (Gradiente de Segunda Ordem ou Conjugado), submetidos a informação à priori e vínculos. A marcação de eventos na seção tempo-distância faz parte dos processos de inversão, e os pontos marcados constituem os dados de entrada juntamente com as informações à priori do modelo a ser ajustado. A marcação deve, por princípio, evitar eventos que representem múltiplas, difrações e interseções, e numa seção pode ser feita mais de 50 marcações de eventos, enquanto que num mapa semblance não se consegue marcar mais de 10 eventos de reflexão. A aplicação deste trabalho é voltada a dados sísmicos de bacias sedimentares em ambientes marinhos para se obter uma distribuição de velocidades para a subsuperfície, onde o modelo plano-horizontal é aplicado em seções PMC individualizadas, e cuja solução pode ser usada como um modelo inicial em processos posteriores. Os dados reais da Bacia Marinha usados neste trabalho foram levantados pela PETROBRAS em 1985, e a linha sísmica selecionada foi a de número L5519 da Bacia do Camamu, e o PMC apresentado é a de número 237. A linha é composta de 1098 pontos de tiro, com arranjo unilateraldireito. O intervalo de amostragem é 4 ms. O espaçamento entre os geofones é 13,34 m com o primeiro geofone localizado a 300 m da fonte. O espaçamento entre as fontes é de 26,68 m. Como conclusão geral, o método de estimativa de velocidade intervalar apresentada neste trabalho fica como suporte alternativo ao processo de análise de velocidades, onde se faz necessário um controle sobre a sequência de inversão dos PMCs ao longo da linha sísmica para que a solução possa ser usada como modelo inicial ao imageamento, e posterior inversão tomográfica. Como etapas futuras, podemos propor trabalhos voltados direto e especificamente a análise de velocidade sísmica estendendo o caso 2D de otimização do semblance ao caso 3D, estender o presente estudo para o caso baseado na teoria do raio imagem com a finalidade de produzir um mapa continuo de velocidades para toda a seção sísmica de forma automática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.