135 resultados para GEOMETRIA COMPUTACIONAL
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
As técnicas inversas têm sido usadas na determinação de parâmetros importantes envolvidos na concepção e desempenho de muitos processos industriais. A aplicação de métodos estocásticos tem aumentado nos últimos anos, demonstrando seu potencial no estudo e análise dos diferentes sistemas em aplicações de engenharia. As rotinas estocásticas são capazes de otimizar a solução em uma ampla gama de variáveis do domínio, sendo possível a determinação dos parâmetros de interesse simultaneamente. Neste trabalho foram adotados os métodos estocásticos Luus-Jaakola (LJ) e Random Restricted Window (R2W) na obtenção dos ótimos dos parâmetros cinéticos de adsorção no sistema de cromatografia em batelada, tendo por objetivo verificar qual método forneceria o melhor ajuste entre os resultados obtidos nas simulações computacionais e os dados experimentais. Este modelo foi resolvido empregando o método de Runge- Kutta de 4 ordem para a solução de equações diferenciais ordinárias.
Resumo:
Em um ambiente virtual, construído com o uso de tecnologia computacional, encontram-se presentes entidades virtuais inseridas em um espaço tridimensional, que é utilizado para a simulação de processos críticos, como os acidentes radiológicos. A pronta detecção de um acidente radiológico e a determinação da sua possível extensão são fatores essenciais para o planejamento de respostas imediatas e de ações de emergência. A integração das representações georeferenciadas do espaço tridimensional, com modelos baseados em agentes autônomos, com o objetivo de construir ambientes virtuais que tenham a capacidade de simular acidentes radiológicos é a proposta dessa tese. As representações georeferenciadas do espaço tridimensional candidatas são: i)as representações espaciais usadas nos sistemas de informações geográficas (SIG) e ii) a representação adotada pelo Google MapsTM. Com o uso deste ambiente pode-se: quantificar as doses recebidas pelas pessoas; ter uma distribuição espacial das pessoas contaminadas; estimar o número de indivíduos contaminados; estimar o impacto na rede de saúde; estimar impactos ambientais; gerar zonas de exclusão; construir cenários alternativos; treinar pessoal técnico para lidar com acidentes radiológicos.
Resumo:
Nesta dissertação são apresentados resultados de simulações Monte Carlo de fluorescência de raios X (XRF), utilizando o programa GEANT4, para medidas de espessura de revestimento metálico (Ni e Zn) em base metálica (Fe). As simulações foram feitas para dois tamanhos de espessura para cada metal de revestimento, (5μm e 10μm), com passos de 0,1 μm e 0,001 μm e com 106 histórias. No cálculo da espessura do revestimento foram feitas as aproximações de feixe de raios X monoenegético, com a análise da transmissão apenas da energia do K-alfa e para uma geometria compatível com um sistema real de medição (ARTAX-200). Os resultados mostraram a eficiência da metodologia de simulação e do cálculo da espessura do revestimento, o que permitirá futuros cálculos, inclusive para multirevestimentos metálicos em base metálica.
Resumo:
A geotecnia constitui uma disciplina relativamente recente na área da engenharia civil, e dessa disciplina faz parte um capítulo ainda menos estudado que trata de fundações submetidas a esforços de tração. O presente trabalho deriva do conjunto de provas de cargas realizado para um importante projeto de linhas de transmissão que permitiu a aferição da teoria de capacidade de carga à tração da Universidade de Grenobel, cujos estudos comparativos mostram bons resultados para fins de aplicações práticas. De posse da extensa documentação técnica produzida e documentada por esse estudo foi possível comparar os resultados obtidos pelas provas de cargas e os resultados teóricos com os resultados das modelagens 2D axisimetricas por elementos finitos. Além dessas análises, foi possível verificar a variação da resistência à tração através de análises paramétricas realizadas a partir da variação da coesão e do ângulo de atrito. Os estudos apresentados reafirmam a confiabilidade das teorias da Universidade de Grenoble, que contemplam a simplicidade desejada às aplicações de cunho prático, com resultados satisfatórios em relação àqueles obtidos nos ensaios de tração. Por outro lado, as análises paramétricas realizadas indicaram a tendência de comportamento que a resistência à tração deve apresentar para diferentes parâmetros do solo. O conhecimento dessas tendências permite ao projetista avaliar os fatores de segurança sob ponto de vista probabilístico, ou seja, permite o emprego de fatores de segurança com o conhecimento da probabilidade de ruína associada. As análises probabilísticas foram traçadas a partir do emprego de funções genéricas de várias variáveis no formato FOSM (First Order Second Moment) que fornecem soluções aproximadas para o cálculo de desvio padrão quando não existe uma amostragem representativa. Ao término das análises, obteve-se como resultado, o mapa comparativo da probabilidade de ruína para os mesmos fatores de segurança empregados com base em resistências estimadas através de diferentes métodos de cálculos (Universidade de Grenoble e modelagem computacional).
Resumo:
Diversos pesquisadores têm estudado o comportamento e o emprego de lajes nervuradas de concreto armado em sistemas estruturais na engenharia civil que demonstrem viabilidade sob o ponto de vista técnico e econômico. Por esta razão, inúmeros trabalhos têm sido publicados nos últimos anos respaldados por testes experimentais e análises numéricas. Neste contexto, diversos tipos de sistemas estruturais de lajes nervuradas têm sido desenvolvidos. Assim sendo, o objetivo desta investigação é o de contribuir, no que tange ao estudo do comportamento estrutural estático e dinâmico de lajes nervuradas de concreto armado, tendo em mente o emprego destas em sistemas estruturais na engenharia civil. Este trabalho de pesquisa objetiva também o estudo da resposta dinâmica de lajes nervuradas de concreto armado, sob o ponto de vista de conforto humano, especialmente quando essas estruturas encontram-se submetidas a atividades humanas rítmicas. A definição das ações dinâmicas atuantes sobre os modelos estruturais foi feita com base em resultados experimentais, que consideram grupos de indivíduos desenvolvendo atividades rítmicas correspondentes à ginástica aeróbica (atividade sincronizada). São empregadas técnicas usuais de discretização, via método dos elementos finitos (MEF), por meio do programa de elementos finitos ANSYS. No presente modelo computacional, as vigas de bordo, nervuras e a laje de concreto armado são simuladas por elementos finitos de casca. Os resultados obtidos ao longo do estudo, em termos das acelerações de pico, são confrontados e comparados com os limites propostos por normas de projeto, sob o ponto de vista do conforto humano. Com base na análise dinâmica das lajes nervuradas investigadas foi possível verificar que as atividades humanas rítmicas podem vir a gerar valores de acelerações de pico elevados e que violam os critérios de conforto humano. Deste modo, foi observado que, as acelerações nos modelos estudados, podem atingir níveis elevados de vibração que comprometem o conforto dos usuários.
Resumo:
Neste trabalho é apresentado o desenvolvimento de um programa computacional que simula o desempenho térmico de um sistema de aquecimento solar de água com circulação forçada, adequado para uso em edificações. O programa trabalha realizando o balanço de massa e de energia no reservatório térmico a cada hora, tendo como valores de entrada dados do ano meteorológico típico da localidade selecionada e a vazão de água quente de consumo. Os componentes do sistema são o reservatório térmico de água quente com aquecedor auxiliar interno, o coletor solar e a bomba de circulação. A base de dados meteorológicos escolhida foi a do projeto SWERA, que contém arquivos no formato padrão TMY disponíveis na internet para um número considerável de cidades, incluindo diversas localidades brasileiras. Foi proposto um modelo de temperatura de água da rede de abastecimento relacionado com a temperatura do solo, dado disponível nos arquivos de entrada utilizados. O programa utilizou como referência para a validação dos modelos de cálculo resultados obtidos pelo programa comercial de simulação TRNSYS. Foram comparados resultados para os modelos de irradiação incidente em superfície inclinada, do coletor solar e do sistema completo. Para isto foram simulados sistemas localizados em quatro cidades distintas com climas diferentes. O tempo total usado nas simulações foi de um ano e os resultados das comparações dos valores resultantes foram considerados satisfatórios.
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
Com o passar do tempo, a demanda elétrica de diversas áreas varia tornando necessária a construção de novos geradores elétricos e a expansão da rede de transmissão de energia elétrica. Nesta dissertação, focamos no problema de expansão da rede de transmissão, assumindo que novos geradores estão construídos para suprir as novas demandas. Essa expansão exige altos investimentos que precisam ser cuidadosamente planejados. O problema pode ser modelado como um problema de otimização não linear inteira mista e pertence à classe dos problemas NP-difíceis. Desta forma, uma abordagem heurística pode ser adequada para a sua solução pois pode vir a fornecer boas soluções em tempo computacional aceitável. Esta dissertação se propõe a apresentar um estudo do problema de planejamento da expansão de redes de transmissão de energia elétrica estático e multiestágio. Mostramos o que já existe na literatura para o que é chamado de problema sem redimensionamento e as inovações feitas por nós para o problema com redimensionamento. Quanto aos métodos de solução, utilizamos a metaheurística GRASP para o problema estático e combinamos o GRASP com o procedimento Backward-Forward quando falamos em problema multiestágio. Nesta dissertação comparamos os resultados computacionais obtidos com resultados encontrados na literatura.
Resumo:
A maioria das bacias paleozóicas brasileiras apresenta matéria orgânica termicamente pouco evoluída nos intervalos correspondentes ao Devoniano. O modelo mais adequado para se entender a geração, migração e acumulação de HC estaria relacionado às fases de intrusão de diabásio. No caso da Bacia do Amazonas, embora tenha havido condições de soterramento suficientes para a geração de hidrocarbonetos, não se deve descartar o modelo não convencional de geração como uma das formas possíveis de dar origem as acumulações comerciais de óleo e gás. Acredita-se que o intervalo mais apropriado para a geração de hidrocarbonetos (HC) inclua apenas as rochas depositadas no intervalo Frasniano, embora as rochas associadas ao intervalo Llandoveriano, também, devam ser observadas com atenção. Com o intuito de compreender melhor o papel da atividade magmática na evolução da Bacia do Amazonas, foi realizado o mapeamento sísmico de soleiras de diabásio e análise de dados geoquímicos de pirólise Rock-Eval e COT. Assim, foi possível avaliar a geração/migração de hidrocarbonetos e a variação dos parâmetros geotérmicos na Bacia do Amazonas, causados pela intrusão das soleiras de diabásio. A análise sismoestratigráfica baseou-se na interpretação de 20 linhas sísmicas 2D pós-stack, na qual foram reconhecidos e mapeados horizontes sísmicos (topos de formações e corpos ígneos intrusivos), utilizando dados de poços e dados da literatura para correlação. As intrusões de soleiras estão presentes nas sucessões de folhelhos/siltitos e anidritas das formações Andirá e Nova Olinda, respectivamente. Observou-se que as soleiras de diabásio podem estar intimamente relacionadas a diques sistematicamente orientados, tendo estes diques a função de alimentadores das soleiras. Extensas soleiras planares com segmentos transgressivos ocorrem nos níveis estratigráficos mais rasos da Bacia do Amazonas, e em maiores volumes nas formações Andirá e Nova Olinda. Em algumas regiões as soleiras desenvolvem morfologias marcantes em forma de pires. Esses corpos possuem espessuras que podem chegar a 500m. Comumente, a geometria em lençol denotada pelo paralelismo dos refletores está presente em toda extensão do mapeamento da bacia. Também foram observadas estruturas em domo. O efeito térmico imposto pelas intrusões dos corpos ígneos, diques e soleiras foi de grande importância, pois sem ele não haveria calor para a transformação da matéria orgânica. Através da análise de pirólise Rock-Eval e teor de carbono orgânico, foi possível avaliar e correlacionar os parâmetros como S2 (potencial de geração), IH (índice de hidrogênio), S1 (hidrocarbonetos livres) e Tmax (evolução térmica) com a profundidade. Foram utilizados dados de 04 poços na qual dois deles foram compilados a partir de artigos e teses publicados. As rochas potencialmente geradoras de petróleo são aquelas que apresentam COT igual ou superior a 1%. Dos quatro poços analisados, dois deles apresentam COT > 1% para a Formação Barreirinhas, mostrando que as rochas sedimentares são potencialmente geradoras de HC. Altos valores Tmax podem ser justificados pelo efeito térmico causado por intrusões de diabásio. Os resultados de índice de hidrogênio (IH) apresentaram valores abaixo de 200mgHC/g COT, indicando o potencial gerador desta bacia para gás.
Resumo:
Um método espectronodal é desenvolvido para problemas de transporte de partículas neutras de fonte fixa, multigrupo de energia em geometria cartesiana na formulação de ordenadas discretas (SN). Para geometria unidimensional o método espectronodal multigrupo denomina-se método spectral Greens function (SGF) com o esquema de inversão nodal (NBI) que converge solução numérica para problemas SN multigrupo em geometria unidimensional, que são completamente livre de erros de truncamento espacial para ordem L de anisotropia de espalhamento desde que L < N. Para geometria X; Y o método espectronodal multigrupo baseia-se em integrações transversais das equações SN no interior dos nodos de discretização espacial, separadamente nas direções coordenadas x e y. Já que os termos de fuga transversal são aproximados por constantes, o método nodal resultante denomina-se SGF-constant nodal (SGF-CN), que é aplicado a problemas SN multigrupo de fonte fixa em geometria X; Y com espalhamento isotrópico. Resultados numéricos são apresentados para ilustrar a eficiência dos códigos SGF e SGF-CN e a precisão das soluções numéricas convergidas em cálculos de malha grossa.