22 resultados para Otimização de código


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em sistemas híbridos de geração de eletricidade (SHGEs) é fundamental avaliar corretamente o dimensionamento, a operação e a gestão do sistema, de forma a evitar seu colapso prematuro e garantir a continuidade do fornecimento de energia elétrica com a menor intervenção possível de usuários ou de empresas geradoras e distribuidoras de eletricidade. O presente trabalho apresenta propostas de otimização para as etapas de dimensionamento, operação e gestão de SHGEs atendendo minirredes de distribuição de eletricidade. É proposta uma estratégia de operação que visa otimizar o despacho de energia do sistema, identificando a melhor relação, sob aspectos técnicos e econômicos, entre o atendimento da carga exclusivamente via fontes renováveis e banco de baterias ou exclusivamente via grupo gerador, e o carregamento do banco de baterias somente pelas fontes renováveis ou também pelo grupo gerador. Desenvolve-se, também, um algoritmo de dimensionamento de SHGEs, com auxílio de algoritmos genéticos e simulated annealing, técnicas meta-heurísticas de otimização, visando apresentar a melhor configuração do sistema, em termos de equipamentos que resultem na melhor viabilidade técnica e econômica para uma dada condição de entrada definida pelo usuário. Por fim, é proposto um modelo de gestão do sistema, considerando formas de tarifação e sistemas de controle de carga, cujo objetivo é garantir uma relação adequada entre a disponibilidade energética do sistema de geração e a carga demandada. A estratégia de operação proposta combina as estratégias de operação descontínua do grupo gerador, da potência crítica e do ponto otimizado de contribuição do gerador no carregamento do banco de baterias, e seus resultados indicam que há redução nos custos de operação globais do sistema. Com relação ao dimensionamento ótimo, o algoritmo proposto, em comparação a outras ferramentas de otimização de SHGEs, apresenta bons resultados, sendo adequado à realidade nacional. O modelo de gestão do sistema propõe o estabelecimento de limites de consumo e demanda, adequados à realidade de comunidades isoladas atendidas por sistemas com fontes renováveis e, se corretamente empregados, podem ajudar a garantir a sustentabilidade dos sistemas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho busca estudar de forma aprofundada o instituto da responsabilidade civil sob o prisma do Novo Código Civil Brasileiro. Em um primeiro momento examina-se a constitucionalização do Direito Civil como base axiológica da atual responsabilidade civil. Em um segundo momento analisa-se o instituto da responsabilidade civil objetiva abordando-se sua origem, seu fundamento e suas teorias. Finalmente apresenta-se a teoria do risco no ordenamento civil brasileiro identificando a sua origem, suas hipóteses, seus conceitos, e a abordagem intensa do artigo 927 do Código Civil. Conclui-se pela importância da teoria do risco e a sua aplicação no ordenamento jurídico brasileiro como objetivo de justiça.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A desidratação osmótica de filés de mapará tem sido utilizada como pré-tratamento antes da secagem e refrigeração de alimentos como um meio de reduzir a umidade dos produtos. O objetivo do trabalho foi otimizar a transferência de massa ocorrida durante a desidratação osmótica de mapará através da metodologia de superfície de resposta. A desidratação osmótica foi realizada de acordo com um planejamento fatorial completo 23, com oito pontos fatoriais, três centrais e seis axiais, totalizando 17 ensaios, em que o valor das variáveis dependentes, a perda de peso (PP), a perda de água (PA), o ganho de sólidos (GS), GS/PA e ácido tiobarbitúrico (TBA), são funções das variáveis independentes, temperatura, concentração de NaCl e tempo de imersão. A análise estatística aplicada aos dados experimentais foi realizada através do erro puro e pelo SS residual. Aplicando a metodologia de superfície de resposta, a condição ótima de convergência de menor perda de peso, maior perda de água e menor ganho de sal correspondeu a uma concentração de cloreto de sódio de 22%, temperatura de 46 °C e tempo de 7 horas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A localização de bancos de capacitores nas redes de distribuição de energia elétrica, corretamente dimensionados, busca compensar eventuais excessos de circulação de potência reativa pelas linhas, o que implica a redução de custos operacionais pela redução das perdas de energia e um aumento da capacidade de transmissão de potência ativa assegurando os níveis estabelecidos de tensão e fator de potência simultaneamente. A proliferação das cargas não lineares provocou uma mudança nos cenários de estudo dos sistemas elétricos de potência devido aos efeitos nocivos que os harmônicos gerados por elas ocasionam sobre a qualidade da energia elétrica. Considerando este novo cenário, esta tese tem como objetivo geral desenvolver uma ferramenta computacional utilizando técnicas de inteligência computacional apoiada em algoritmos genéticos (AG), para a otimização multiobjetivo da compensação da potência reativa em redes elétricas de distribuição capaz de localizar e dimensionar de forma ótima as unidades de compensação necessárias para obter os melhores benefícios econômicos e a manutenção dos índices de qualidade da energia estabelecidos pelas normas brasileiras. Como Inovação Tecnológica do trabalho a ferramenta computacional desenvolvida permite otimizar a compensação da potência reativa para melhorar do fator de potência em redes de distribuição contaminadas com harmônicos que, diferentemente de métodos anteriores, não só emprega bancos de capacitores, mas também filtros de harmônicos com esse objetivo. Utiliza-se o algoritmo NSGA-II, que determina as soluções ótimas de Pareto para o problema e permite ao especialista determinar as soluções mais efetivas. A proposta para a solução do problema apresenta várias inovações podendo-se destacar que a solução obtida permite determinar a compensação de potência reativa com capacitores em sistemas com certa penetração harmônica, atendendo a normas de qualidade de energia pertinentes, com relação aos níveis de distorção harmônica tolerados.