887 resultados para GEOMETRIA COMPUTACIONAL
Resumo:
Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).
Resumo:
A estimação de parâmetros cinéticos em processos químicos e cromatográficos utilizando técnicas numéricas assistidas por computadores tem conduzido para melhoria da eficiência e o favorecimento da compreensão das fenomenologias envolvidas nos mesmos. Na primeira parte deste trabalho será realizada a modelagem computacional do processo de produção de biodiesel via esterificação, sendo que, o método de otimização estocástica Random Restricted Window (R2W) será correlacionado com os dados experimentais da produção de biodiesel a partir da esterificação do ácido láurico com etanol anidro na presença do catalisador ácido nióbico (Nb2O5). Na segunda parte do mesmo será realizada a modelagem computacional do processo de cromatografia de adsorção (batch process) onde serão correlacionados os dados provenientes dos modelos cinéticos de HASHIM, CHASE e IKM2 com os dados experimentais da adsorção de amoxicilina com quitosana, e também serão correlacionados os dados experimentais da adsorção de Bovine Serum Albumin (BSA) com Streamline DEAE com os dados provenientes de uma nova aplicação do método R2W mediante a implementação de um modelo cinético reversível. Ademais, as constantes cinéticas para cada processo supracitado serão estimadas levando em consideração o valor mínimo da função resíduos quadrados.
Resumo:
Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86.
Resumo:
A utilização de treliças para o escoramento de elementos estruturais de concreto armado e aço é considerada uma solução eficaz para o atual sistema de construção de engenharia civil. Uma mudança de atitude no processo de construção, associado com a redução dos custos causou um aumento considerável na utilização de treliças tridimensionais em aço com maior capacidade de carga. Infelizmente, o desenho destes sistemas estruturais baseia-se em cálculos muito simplificados relacionadas com vigas de uma dimensão, com propriedades de inércia constantes. Tal modelagem, muito simplificada, não pode representar adequadamente a resposta real dos modelos estruturais e pode levar a inviabilidade econômica ou mesmo inseguro desenho estrutural. Por outro lado, estas estruturas treliçadas estão relacionadas com modelos de geometria complexa e são desenhados para suportar níveis de cargas muito elevadas. Portanto, este trabalho de investigação propôs modelos de elementos finitos que representam o caráter tridimensional real do sistema de escoramento, avaliando o comportamento estático e dinâmico estrutural com mais confiabilidade e segurança. O modelo computacional proposto, desenvolvido para o sistema estrutural não linear de análise estática e dinâmica, aprovou as habituais técnicas de refinamento de malha presentes em simulações do método de elementos finitos, com base no programa ANSYS [1]. O presente estudo analisou os resultados de análises linear-elástica e não linear geométrica para ações de serviço, físicos e geométricos para as ações finais. Os resultados do presente estudo foram obtidas, com base na análise linear-elástica e não linearidade geométrica e física, e comparados com os fornecidos pela metodologia simplificada tradicional de cálculo e com os limites recomendadas por normas de concepção.
Resumo:
Nesta dissertação, são apresentados os seguintes modelos matemáticos de transporte de nêutrons: a equação linearizada de Boltzmann e a equação da difusão de nêutrons monoenergéticos em meios não-multiplicativos. Com o objetivo de determinar o período fluxo escalar de nêutrons, é descrito um método espectronodal que gera soluções numéricas para o problema de difusão em geometria planar de fonte fixa, que são livres de erros de truncamento espacial, e que conjugado com uma técnica de reconstrução espacial intranodal gera o perfil detalhado da solução. A fim de obter o valor aproximado do fluxo angular de nêutrons em um determinado ponto do domínio e em uma determinada direção de migração, descreve-se também um método de reconstrução angular baseado na solução analítica da equação unidimensional de transporte de nêutrons monoenergéticos com espalhamento linearmente anisotrópico com aproximação sintética de difusão nos termos de fonte por espalhamento. O código computacional desenvolvido nesta dissertação foi implementado na plataforma livre Scilab, e para ilustrar a eficiência do código criado,resultados numéricos obtidos para três problemas-modelos são apresentados
Resumo:
Um método de Matriz Resposta (MR) é descrito para gerar soluções numéricas livres de erros de truncamento espacial para problemas multigrupo de transporte de nêutrons com fonte fixa e em geometria unidimensional na formulação de ordenadas discretas (SN). Portanto, o método multigrupo MR com esquema iterativo de inversão nodal parcial (NBI) converge valores numéricos para os fluxos angulares nas fronteiras das regiões que coincidem com os valores da solução analítica das equações multigrupo SN, afora os erros de arredondamento da aritmética finita computacional. É também desenvolvido um esquema numérico de reconstrução espacial, que fornece a saída para os fluxos escalares de nêutrons em cada grupo de energia em um intervalo qualquer do domínio definido pelo usuário, com um passo de avanço também escolhido pelo usuário. Resultados numéricos são apresentados para ilustrar a precisão do presente método em cálculos de malha grossa.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Um método numérico espectronodal (END) livre de erros de truncamento espacial é desenvolvido para problemas unidimensionais de difusão de nêutrons monoenergéticos em duas versões. Na versão de problemas de autovalor, o método gera soluções numéricas para o perfil do fluxo escalar e para o fator de multiplicação efetivo (k), que coincidem com a solução analítica dominante, afora os erros da aritmética finita computacional. Na versão de fonte fxa, o método também gera soluções numéricas analíticas para o problema de fonte fixa correspondente, onde a fonte de fissão, com dependência espacial, é obtida analiticamente, a partir da reconstrução espacial do fluxo escalar gerado pelo método END para problemas de autovalor. Alguns experimentos numéricos são apresentados para dois problemas modelos a fim de ilustrar a precisão do método.
Resumo:
O estudo que apresento está assentado em questões, cujo aprofundamento pretende trazer contribuição à ressignificação dos processos de ensino-aprendizagem, especialmente no âmbito da geometria espacial. Dentre as questões destaco: (1) a relação entre cibercultura e processos de ensinar-aprender, especialmente no que se refere ao conteúdo da geometria espacial, (2) os modos de sentir, de expressar-se e de aprender que a mediação da cultura digital traz contemporaneamente para os jovens; (3) a pesquisa entendida como acontecimento/experiência, cuja dimensão de intervenção permite a pesquisador e pesquisados relacionarem-se dialogicamente, reconhecendo-se como co-autores do processo de investigação. O principal interesse da pesquisa foi investigar se a dinâmica do uso das tecnologias em redes, própria da cibercultura, pode ressignificar o aprendizado do conhecimento de geometria espacial de jovens alunos do Ensino Médio. A abordagem teórico-metodológica está fundamentada nos princípios bakhtinianos da dialogia e da alteridade e no conceito vigotskiano de mediação. Sob a orientação da abordagem histórico-cultural, outros interlocutores teóricos contribuiram de modo significativo para a compreensão das questões que envolvem a relação entre educação e processos comunicacionais pós-massivos, tendo sido indispensáveis à construção e interpretação dos dados Dentre eles, cito Lucia Santaella, Maria Teresa Freitas, Pierre Lévy, Marília Amorim, Maria Helena Bonilla, Nelson Pretto, Edmea Santos, Guaracira Gouvêa, Maria Luiza Oswald, entre outros. O estudo foi realizado numa escola da rede estadual na cidade de Cabo Frio/RJ, sendo sujeitos da pesquisa 78 alunos/as do 2 e 3 ano do Ensino Médio. Para colher as informações de caráter objetivo, foi aplicado um questionário através do aplicativo Google Docs. Os dados qualitativos foram construídos por intermédio da dinâmica de convergência de mídias que engloba a metodologia Webquest, a interface wiki e o software Geogebra. Tendo em vista os pressupostos do estudo que relacionam propostas autorais, posturas alteritárias e práticas cotidianas procurei construir uma estratégia metodológica em que a apropriação das dinâmicas ciberculturais e das interfaces digitais fosse capaz de me auxiliar a identificar como usar estes dispositivos no processo de ressignificação da construção do conhecimento geométrico, bem como descobrir os limites de sua aplicação. Os resultados alcançados, ainda que provisórios dado o inacabamento dos acontecimentos que fazem da pesquisa uma experiência inacabada, apontam para a necessidade de reconhecer os jovens como produtores de saberes que deveriam ser legitimados para que a prática de ensinar-aprender geometria resultasse em conhecimento que articula ciência e vida cotidiana. Essa foi a valiosa lição que a pesquisa trouxe à minha própria prática de professora de matemática, lição que, espero, possa ecoar para outros professores.
Resumo:
Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.
Resumo:
Turbomáquinas são máquinas operacionais que transferem energia mecânica entre um rotor e um fluido. Estas máquinas têm muitas aplicações industriais. Um dos componentes de uma turbomáquina responsável pela transferência da energia, ou receber a rotação do eixo e transformar em energia de fluido em caso de bomba ou transferir a energia do fluido para o eixo em caso de uma turbina, é o impelidor ou rotor. O fenómeno da cavitação envolve escoamento bifásico: o líquido a ser bombeado e as bolhas de vapor que são formadas durante o processo de bombeamento. O processo de formação dessas bolhas é complexo, mas ocorre principalmente devido a presença de regiões de pressões muito baixas. O colapso dessas bolhas pode muitas vezes levar a deterioração do material, dependendo da intensidade ou da velocidade de colapso das bolhas. O principal objetivo deste trabalho foi estudar o comportamento hidrodinâmico do escoamento nos canais do impelidor de uma turbomáquina do tipo radial usando recursos de fluidodinâmica computacional (CFD). Uma abordagem Euler-Lagrange acoplada com o modelo da equação de Langevin foi empregada para estimar a trajetória das bolhas. Resultados das simulações mostram as particularidades de um escoamento líquido-bolha de vapor passando em um canal de geometria curva, fornecendo assim informações que podem nos ajudar na prevenção da cavitação nessas máquinas.
Resumo:
Neste trabalho é apresentado um estudo para a determinação do tamanho ótimo da malha de elementos, utilizando redes neurais artificiais, para o cálculo da intensidade útil. A ideia principal é treinar as redes de modo a possibilitar a aprendizagem e o reconhecimento do melhor tamanho para diversas áreas superficiais em fontes sonoras com geometria plana. A vantagem de se utilizar redes neurais artificiais deve-se ao fato de apresentarem um único tamanho para a obtenção da intensidade útil, consequentemente, uma redução significativa de tempo computacional quando comparado com o tempo de cálculo de uma malha bem refinada. Ensaios numéricos com placas planas - geometria separável que permite uma solução analítica - são utilizados para se realizar comparações. É apresentado um estudo comparativo entre o tempo computacional gasto para a obtenção da intensidade útil e o mesmo com a malha otimizada via redes neurais artificiais. Também é apresentada uma comparação do nível de potência sonora mediante solução numérica, a fim de validar os resultados apresentados pelas redes neurais.
Resumo:
Neste trabalho é apresentada uma nova abordagem para obter as respostas impulsivas biauriculares (BIRs) para um sistema de aurilização utilizando um conjunto de redes neurais artificiais (RNAs). O método proposto é capaz de reconstruir as respostas impulsivas associadas à cabeça humana (HRIRs) por meio de modificação espectral e de interpolação espacial. A fim de cobrir todo o espaço auditivo de recepção, sem aumentar a complexidade da arquitetura da rede, uma estrutura com múltiplas RNAs (conjunto) foi adotada, onde cada rede opera uma região específica do espaço (gomo). Os três principais fatores que influenciam na precisão do modelo arquitetura da rede, ângulos de abertura da área de recepção e atrasos das HRIRs são investigados e uma configuração ideal é apresentada. O erro de modelagem no domínio da frequência é investigado considerando a natureza logarítmica da audição humana. Mais ainda, são propostos novos parâmetros para avaliação do erro, definidos em analogia com alguns dos bem conhecidos parâmetros de qualidade acústica de salas. Através da metodologia proposta obteve-se um ganho computacional, em redução do tempo de processamento, de aproximadamente 62% em relação ao método tradicional de processamento de sinais utilizado para aurilização. A aplicabilidade do novo método em sistemas de aurilização é reforçada mediante uma análise comparativa dos resultados, que incluem a geração das BIRs e o cálculo dos parâmetros acústicos biauriculares (IACF e IACC), os quais mostram erros de magnitudes reduzidas.
Resumo:
Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.
Resumo:
Em 1828 foi observado um fenômeno no microscópio em que se visualizava minúsculos grãos de pólen mergulhados em um líquido em repouso que mexiam-se de forma aleatória, desenhando um movimento desordenado. A questão era compreender este movimento. Após cerca de 80 anos, Einstein (1905) desenvolveu uma formulação matemática para explicar este fenômeno, tratado por movimento Browniano, teoria cada vez mais desenvolvida em muitas das áreas do conhecimento, inclusive recentemente em modelagem computacional. Objetiva-se pontuar os pressupostos básicos inerentes ao passeio aleatório simples considerando experimentos com e sem problema de valor de contorno para melhor compreensão ao no uso de algoritmos aplicados a problemas computacionais. Foram explicitadas as ferramentas necessárias para aplicação de modelos de simulação do passeio aleatório simples nas três primeiras dimensões do espaço. O interesse foi direcionado tanto para o passeio aleatório simples como para possíveis aplicações para o problema da ruína do jogador e a disseminação de vírus em rede de computadores. Foram desenvolvidos algoritmos do passeio aleatório simples unidimensional sem e com o problema do valor de contorno na plataforma R. Similarmente, implementados para os espaços bidimensionais e tridimensionais,possibilitando futuras aplicações para o problema da disseminação de vírus em rede de computadores e como motivação ao estudo da Equação do Calor, embora necessita um maior embasamento em conceitos da Física e Probabilidade para dar continuidade a tal aplicação.