837 resultados para Otimização matematica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com base no crescimento exponencial das populações urbanas, a demanda por espaço para habitação tem crescido vertiginosamente. Para atender a estas necessidades, edificações cada vez mais altas e mais esbeltas são projetadas e vãos cada vez maiores são utilizados. Novos materiais são criados e aprimorados para que seja extraído o máximo de desempenho com o menor custo. Deste modo, esta dissertação tem como objetivo o estudo do comportamento e otimização do projeto estrutural de edifícios. Para tal, considera-se ao longo do estudo o projeto de uma edificação de concreto armado com 47 metros de altura e 15 pavimentos, submetida às ações das cargas usuais de projeto atuantes sobre edifícios residenciais, além das cargas de vento. No que tange ao desenvolvimento do modelo computacional são empregadas técnicas usuais de discretização, via método dos elementos finitos, por meio do programa ANSYS. Inicialmente, a resposta estática e dinâmica do modelo estrutural é obtida e comparada com base nos valores limites propostos por normas de projeto. A partir de análises qualitativas e quantitativas desenvolvidas sobre a resposta estrutural do modelo em estudo são utilizadas técnicas de otimização com o objetivo de modificar e aprimorar o desempenho estrutural do edifício analisado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos problemas mais relevantes em organizações de grande porte é a escolha de locais para instalação de plantas industriais, centros de distribuição ou mesmo pontos comerciais. Esse problema logístico é uma decisão estratégica que pode causar um impacto significativo no custo total do produto comercializado. Existem na literatura diversos trabalhos que abordam esse problema. Assim, o objetivo desse trabalho é analisar o problema da localização de instalações proposto por diferentes autores e definir um modelo que seja o mais adequado possível ao mercado de distribuição de combustíveis no Brasil. Para isso, foi realizada uma análise do fluxo de refino e distribuição praticado neste segmento e da formação do respectivo custo de transporte. Foram consideradas restrições como capacidade de estoque, gama de produtos ofertados e níveis da hierarquia de distribuição. A partir dessa análise, foi definido um modelo matemático aplicado à redução dos custos de frete considerando-se a carga tributária. O modelo matemático foi implementado, em linguagem C, e permite simular o problema. Foram aplicadas técnicas de computação paralela visando reduzir o tempo de execução do algoritmo. Os resultados obtidos com o modelo Single Uncapacited Facility Location Problem (SUFLP) simulado nas duas versões do programa, sequencial e paralela, demonstram ganhos de até 5% em economia de custos e redução do tempo de execução em mais de 50%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Deposição é um fenômeno indesejável que ocorre na superfície dos trocadores de calor ao longo de sua operação, ocasionando redução na efetividade térmica e aumento da resistência ao escoamento nestes equipamentos. Estes efeitos trazem grandes consequências econômicas e ambientais, devido ao aumento dos custos operacionais (energia adicional é requerida), aumento dos custos de projeto (demanda por equipamentos de maior área de troca térmica), limitações hidráulicas (que pode levar a uma diminuição da carga processada) e aumento das emissões (aumento da queima de combustíveis fósseis para suprir a energia adicional requerida). Neste contexto, o presente trabalho tem por objetivo fornecer ferramentas computacionais robustas que apliquem técnicas de otimização para o gerenciamento da deposição em redes de trocadores de calor, visando minimizar os seus efeitos negativos. Estas ferramentas foram desenvolvidas utilizando programação matemática no ambiente computacional GAMS, e três abordagens distintas para a resolução do problema da deposição foram pesquisadas. Uma delas consiste na identificação do conjunto ótimo de trocadores de calor a serem limpos durante uma parada para manutenção da planta, visando restaurar a carga térmica nesses equipamentos através da remoção dos depósitos existentes. Já as duas outras abordagens consistem em otimizar a distribuição das vazões das correntes ao longo de ramais paralelos, uma de forma estacionária e a outra de forma dinâmica, visando maximizar a recuperação de energia ao longo da rede. O desempenho destas três abordagens é ilustrado através de um conjunto de exemplos de redes de trocadores de calor, onde os ganhos reais obtidos com estas ferramentas de otimização desenvolvidas são demonstrados

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ESTABELECIMENTO DE METODOLOGIA PARA ANÁLISE MOLECULAR DE AZEVÉM ANUAL COM MARCADORES AFLP. O uso de marcadores moleculares no manejo de bancos de germoplasma tem sido cada vez mais expressivo. Entre os diferentes tipos de marcadores moleculares, o AFLP, Amplified Fragment Length Polymorphism, apresenta algumas vantagens para uso na caracterização de recursos genéticos, como a detecção de grande número de bandas informativas por reação, com ampla cobertura do genoma e considerável reprodutibilidade, além de não necessitar de dados de seqüenciamento prévio da espécie para a construção de primers. Embora a análise de AFLP seja freqüentemente utilizada em estudos de variabilidade genética em diferentes espécies, o uso da técnica em Lolium multiflorum ainda é incipiente. Com a finalidade de estabelecer um protocolo para o emprego da técnica de AFLP em azevém anual foi conduzido este trabalho. Foram avaliadas as concentrações iniciais de DNA genômico de 100 e 250 ng, a digestão do DNA com 1,25 e 1U das enzimas EcoRI e MSe, e os respectivos tempos de reação de digestão: 3, 6 e 12 horas. Também foram avaliadas quatro concentrações da solução resultante da ligação dos adaptadores: solução sem diluição; diluída 1:5; 1:10 e 1:20 e duas diluições após a reação de pré-amplificação, de 1:25 e 1:50. Como resultado, foi estabelecido como melhor protocolo, no qual foi obtido um maior número e qualidade de fragmentos, o que utiliza a concentração inicial de DNA genômico de 100 ng, num volume final de reação de digestão 10 ?l, com 1U de cada enzima EcoRI e MseI e tempo de reação de 12h a 37°C, com reação de ligação de adaptadores realizada com a adição da solução de ligação de adaptadores, do Kit AFLP? Analysis System I (InvitroGen Life Technologies, Carlsbad, Calif., USA), e 0,4 U de T4 DNA ligase em um volume final de 10?l, por 2h a 20°C. Após a ligação de adaptadores a diluição deverá ser de 1:5. A reação de pré-amplificação deverá ocorrer a partir de 1?l desta última solução (diluída 1:5), 1,0 X PCR buffer com Mg Plus [Tris-HCl (pH 7.6) 20 mM, MgCl2 1,5 mM, KCl 50 mM], BSA 0,003% e 1 U de Taq DNA polimerase, completando com mix de pré-amplificação do Kit AFLP? Analysis System I até alcançar o volume final de 11?l. O produto da pré-amplificação deverá ser diluído 1:25 antes de ser procedida à amplificação seletiva, a qual deve ser realizada utilizando 2,5 ?l da solução de DNA pré-amplificado (diluído 1:25), 1 X PCR buffer com Mg Plus [Tris-HCl (pH 8,4) 20 mM, MgCl2 1,5 mM, KCl 50 mM], BSA (0,003%), 1 U de Taq DNA polimerase, 10 ng de primer EcoRI, 1,5 ng de primer MseI, 0,4mM de DNTps e H2O MilliQ? até completar o volume final de 10?l. Com este protocolo uma única combinação de primers permitiu identificar 58 bandas polimórficas na análise de duas populações de azevém anual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relaxação Lagrangeana surrogate (Lagsur). Problema de atribuição generalizado. Problema do caxeiro viajante simétrico (PCV).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é comparar o interpolador univariado: inverso do quadrado da distância usado pelo Sistema Agritempo com três interpoladores geoestatísticos uni e multivariados: krigagem ordinária, cokrigagem ordinária e cokrigagem colocalizada através da estatística do quadrado médio do erro, usando observações de precipitação pluvial média anual de mil e vinte e sete estações pluviométricas abrangendo todo o Estado de São Paulo, representando uma área de aproximadamente 248.808,8 km², no período de 1957 a 1997.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A otimização da rede de estradas secundárias em função das distâncias ideais de arraste não tem sido considerada na elaboração dos planos de manejo de floresta tropical. No Estado do Acre, as florestas com potencial de manejo, possuem diferentes tipologias, volume comercial e potencialmente aproveitáveis por hectare, topografia e solos variados. Isto implicará sempre diferentes densidades ideais de construção de estradas florestais para manejo, tornando necessária a utilização de metodologia que defina o menor custo e dano ao povoamento. Este trabalho tem a finalidade de fornecer suporte técnico à planificação de redes de estradas para o manejo em florestas tropicais, abordando os principais elementos necessários as planejamento e sugerindo uma sistemática de trabalhos para elaboração de um projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de mestrado, Aquacultura e Pescas (Aquacultura), Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2015