26 resultados para Otimização de perdas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As Redes de Sensores Sem Fio possuem capacidades limitadas de processamento, armazenamento, comunicação (largura de banda) e fonte de energia, além de possuírem características e requisitos básicos de uma RSSF como: necessidade de se auto-organizar, comunicação com difusão de curto alcance e roteamento com múltiplos saltos. Neste trabalho é proposto uma ferramenta que otimize o posicionamento e os pacotes entregues através do uso de Algoritmo Genético (AG). Para solucionar o problema de roteamento que melhore o consumo de energia e maximize a agregação de dados é proposto a utilização de lógica fuzzy no protocolo de roteamento Ad hoc Ondemand Distance Vector (AODV). Esta customização é intitulada AODV – Fuzzy for Wireless Sensor Networks (AODV-FWSN). Os resultados mostram que a solução proposta é eficiente e consegue prolongar a vida útil da RSSF e melhorar a taxa de entrega de dados quando comparado com soluções similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa-se experimentalmente o processo de extração do óleo essencial de rizomas de priprioca (Cyperus articulatus L.) por arraste com vapor d’água saturado, em um protótipo em escala de bancada. Por meio de experimentos estatisticamente planejados, estimam-se as condições ótimas o processo de modo a maximizar as variáveis de resposta rendimento em óleo e teor de mustacona, componente majoritário do óleo essencial de priprioca, em função de variáveis operacionais de entrada do processo. As variáveis independentes e respectivos níveis são: carga de rizomas de priprioca, em gramas (64, 200, 400, 600, 736); granulometria dos rizomas, em milímetros (0,61; 1,015; 1,6; 2,19; 2,58) e tempo de extração, em minutos (40, 60, 90, 120, 140). Utilizando um planejamento composto central, com auxílio do aplicativo Statistica® 7.0, são propostos modelos matemáticos para as respostas em função das variáveis independentes isoladas e de suas combinações. Constata-se que o rendimento em óleo essencial e os teores de mustacona podem ser estimados adequadamente por modelos polinomiais de segunda ordem. São obtidos simultaneamente maiores rendimentos em óleo e teores de mustacona, quando a carga de rizomas varia de 105 a 400 gramas para tempos de extração compreendidos entre 105 e 140 minutos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante o processo de extração do conhecimento em bases de dados, alguns problemas podem ser encontrados como por exemplo, a ausência de determinada instância de um atributo. A ocorrência de tal problemática pode causar efeitos danosos nos resultados finais do processo, pois afeta diretamente a qualidade dos dados a ser submetido a um algoritmo de aprendizado de máquina. Na literatura, diversas propostas são apresentadas a fim de contornar tal dano, dentre eles está a de imputação de dados, a qual estima um valor plausível para substituir o ausente. Seguindo essa área de solução para o problema de valores ausentes, diversos trabalhos foram analisados e algumas observações foram realizadas como, a pouca utilização de bases sintéticas que simulem os principais mecanismos de ausência de dados e uma recente tendência a utilização de algoritmos bio-inspirados como tratamento do problema. Com base nesse cenário, esta dissertação apresenta um método de imputação de dados baseado em otimização por enxame de partículas, pouco explorado na área, e o aplica para o tratamento de bases sinteticamente geradas, as quais consideram os principais mecanismos de ausência de dados, MAR, MCAR e NMAR. Os resultados obtidos ao comprar diferentes configurações do método à outros dois conhecidos na área (KNNImpute e SVMImpute) são promissores para sua utilização na área de tratamento de valores ausentes uma vez que alcançou os melhores valores na maioria dos experimentos realizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo geral desenvolver uma metodologia sistemática para a inversão de dados de reflexão sísmica em arranjo ponto-médio-comum (PMC), partindo do caso 1D de variação vertical de velocidade e espessura que permite a obtenção de modelos de velocidades intervalares, vint,n, as espessuras intervalares, zn, e as velocidades média-quadrática, vRMS,n, em seções PMC individualizadas. Uma consequência disso é a transformação direta destes valores do tempo para profundidade. Como contribuição a análise de velocidade, foram desenvolvidos dois métodos para atacar o problema baseado na estimativa de velocidade intervalar. O primeiro método foi baseado na marcação manual em seções PMC, e inversão por ajuste de curvas no sentido dos quadrados-mínimos. O segundo método foi baseado na otimização da função semblance para se obter uma marcação automática. A metodologia combinou dois tipos de otimização: um Método Global (Método Price ou Simplex), e um Método Local (Gradiente de Segunda Ordem ou Conjugado), submetidos a informação à priori e vínculos. A marcação de eventos na seção tempo-distância faz parte dos processos de inversão, e os pontos marcados constituem os dados de entrada juntamente com as informações à priori do modelo a ser ajustado. A marcação deve, por princípio, evitar eventos que representem múltiplas, difrações e interseções, e numa seção pode ser feita mais de 50 marcações de eventos, enquanto que num mapa semblance não se consegue marcar mais de 10 eventos de reflexão. A aplicação deste trabalho é voltada a dados sísmicos de bacias sedimentares em ambientes marinhos para se obter uma distribuição de velocidades para a subsuperfície, onde o modelo plano-horizontal é aplicado em seções PMC individualizadas, e cuja solução pode ser usada como um modelo inicial em processos posteriores. Os dados reais da Bacia Marinha usados neste trabalho foram levantados pela PETROBRAS em 1985, e a linha sísmica selecionada foi a de número L5519 da Bacia do Camamu, e o PMC apresentado é a de número 237. A linha é composta de 1098 pontos de tiro, com arranjo unilateraldireito. O intervalo de amostragem é 4 ms. O espaçamento entre os geofones é 13,34 m com o primeiro geofone localizado a 300 m da fonte. O espaçamento entre as fontes é de 26,68 m. Como conclusão geral, o método de estimativa de velocidade intervalar apresentada neste trabalho fica como suporte alternativo ao processo de análise de velocidades, onde se faz necessário um controle sobre a sequência de inversão dos PMCs ao longo da linha sísmica para que a solução possa ser usada como modelo inicial ao imageamento, e posterior inversão tomográfica. Como etapas futuras, podemos propor trabalhos voltados direto e especificamente a análise de velocidade sísmica estendendo o caso 2D de otimização do semblance ao caso 3D, estender o presente estudo para o caso baseado na teoria do raio imagem com a finalidade de produzir um mapa continuo de velocidades para toda a seção sísmica de forma automática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em sistemas híbridos de geração de eletricidade (SHGEs) é fundamental avaliar corretamente o dimensionamento, a operação e a gestão do sistema, de forma a evitar seu colapso prematuro e garantir a continuidade do fornecimento de energia elétrica com a menor intervenção possível de usuários ou de empresas geradoras e distribuidoras de eletricidade. O presente trabalho apresenta propostas de otimização para as etapas de dimensionamento, operação e gestão de SHGEs atendendo minirredes de distribuição de eletricidade. É proposta uma estratégia de operação que visa otimizar o despacho de energia do sistema, identificando a melhor relação, sob aspectos técnicos e econômicos, entre o atendimento da carga exclusivamente via fontes renováveis e banco de baterias ou exclusivamente via grupo gerador, e o carregamento do banco de baterias somente pelas fontes renováveis ou também pelo grupo gerador. Desenvolve-se, também, um algoritmo de dimensionamento de SHGEs, com auxílio de algoritmos genéticos e simulated annealing, técnicas meta-heurísticas de otimização, visando apresentar a melhor configuração do sistema, em termos de equipamentos que resultem na melhor viabilidade técnica e econômica para uma dada condição de entrada definida pelo usuário. Por fim, é proposto um modelo de gestão do sistema, considerando formas de tarifação e sistemas de controle de carga, cujo objetivo é garantir uma relação adequada entre a disponibilidade energética do sistema de geração e a carga demandada. A estratégia de operação proposta combina as estratégias de operação descontínua do grupo gerador, da potência crítica e do ponto otimizado de contribuição do gerador no carregamento do banco de baterias, e seus resultados indicam que há redução nos custos de operação globais do sistema. Com relação ao dimensionamento ótimo, o algoritmo proposto, em comparação a outras ferramentas de otimização de SHGEs, apresenta bons resultados, sendo adequado à realidade nacional. O modelo de gestão do sistema propõe o estabelecimento de limites de consumo e demanda, adequados à realidade de comunidades isoladas atendidas por sistemas com fontes renováveis e, se corretamente empregados, podem ajudar a garantir a sustentabilidade dos sistemas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A desidratação osmótica de filés de mapará tem sido utilizada como pré-tratamento antes da secagem e refrigeração de alimentos como um meio de reduzir a umidade dos produtos. O objetivo do trabalho foi otimizar a transferência de massa ocorrida durante a desidratação osmótica de mapará através da metodologia de superfície de resposta. A desidratação osmótica foi realizada de acordo com um planejamento fatorial completo 23, com oito pontos fatoriais, três centrais e seis axiais, totalizando 17 ensaios, em que o valor das variáveis dependentes, a perda de peso (PP), a perda de água (PA), o ganho de sólidos (GS), GS/PA e ácido tiobarbitúrico (TBA), são funções das variáveis independentes, temperatura, concentração de NaCl e tempo de imersão. A análise estatística aplicada aos dados experimentais foi realizada através do erro puro e pelo SS residual. Aplicando a metodologia de superfície de resposta, a condição ótima de convergência de menor perda de peso, maior perda de água e menor ganho de sal correspondeu a uma concentração de cloreto de sódio de 22%, temperatura de 46 °C e tempo de 7 horas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A proposta deste trabalho consistiu em compartilhar um serviço de pronto-atendimento psicológico às pessoas que vivenciam uma perda significativa, seja por morte de uma pessoa de vinculação importante, como a de um familiar ou amigo, óbito de um paciente ou perda da saúde quando do adoecimento e/ou hospitalização, entre outros, e discutiu os resultados de tal serviço. O enfoque metodológico baseou-se na análise do processo de estruturação e implantação de um serviço dessa especificidade em um hospital público universitário, onde os autores desenvolvem a assistência aos que vivenciam esses processos de perda. Os resultados apontaram a importância da oferta desse serviço, que foi demandado tanto por aqueles que vivenciam o luto pela perda de saúde ou pela morte de uma pessoa significativa como por profissionais de educação e saúde.