996 resultados para Folheações (Matematica)
Resumo:
O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Neste trabalho é descrita a teoria necessária para a obtenção da grandeza denominada intensidade supersônica, a qual tem por objetivo identificar as regiões de uma fonte de ruído que efetivamente contribuem para a potência sonora, filtrando, consequentemente, a parcela referente às ondas sonoras recirculantes e evanescentes. É apresentada a abordagem de Fourier para a obtenção da intensidade supersônica em fontes com geometrias separáveis e a formulação numérica existente para a obtenção de um equivalente à intensidade supersônica em fontes sonoras com geometrias arbitrárias. Este trabalho apresenta como principal contribuição original, uma técnica para o cálculo de um equivalente à intensidade supersônica, denominado aqui de intensidade acústica útil, capaz de identificar as regiões de uma superfície vibrante de geometria arbitrária que efetivamente contribuem para a potência sonora que será radiada. Ao contrário da formulação numérica existente, o modelo proposto é mais direto, totalmente formulado na superfície vibrante, onde a potência sonora é obtida através de um operador (uma matriz) que relaciona a potência sonora radiada com a distribuição de velocidade normal à superfície vibrante, obtida com o uso do método de elementos finitos. Tal operador, chamado aqui de operador de potência, é Hermitiano, fato crucial para a obtenção da intensidade acússtica útil, após a aplicação da decomposição em autovalores e autovetores no operador de potência, e do critério de truncamento proposto. Exemplos de aplicações da intensidade acústica útil em superfícies vibrantes com a geometria de uma placa, de um cilindro com tampas e de um silenciador automotivo são apresentados, e os resultados são comparados com os obtidos via intensidade supersônica (placa) e via técnica numérica existente (cilindro), evidenciando que a intensidade acústica útil traz, como benefício adicional, uma redução em relação ao tempo computacional quando comparada com a técnica numérica existente.
Resumo:
Os métodos espectrais são ferramentas úteis na análise de dados, sendo capazes de fornecer informações sobre a estrutura organizacional de dados. O agrupamento de dados utilizando métodos espectrais é comumente baseado em relações de similaridade definida entre os dados. O objetivo deste trabalho é estudar a capacidade de agrupamento de métodos espectrais e seu comportamento, em casos limites. Considera-se um conjunto de pontos no plano e usa-se a similaridade entre os nós como sendo o inverso da distância Euclidiana. Analisa-se a qual distância mínima, entre dois pontos centrais, o agrupamento espectral é capaz de reagrupar os dados em dois grupos distintos. Acessoriamente, estuda-se a capacidade de reagrupamento caso a dispersão entre os dados seja aumentada. Inicialmente foram realizados experimentos considerando uma distância fixa entre dois pontos, a partir dos quais os dados são gerados e, então, reduziu-se a distância entre estes pontos até que o método se tornasse incapaz de efetuar a separação dos pontos em dois grupos distintos. Em seguida, retomada a distância inicial, os dados foram gerados a partir da adição de uma perturbação normal, com variância crescente, e observou-se até que valor de variância o método fez a separação dos dados em dois grupos distintos de forma correta. A partir de um conjunto de pontos obtidos com a execução do algoritmo de evolução diferencial, para resolver um problema multimodal, testa-se a capacidade do método em separar os indivíduos em grupos diferentes.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
As técnicas inversas têm sido usadas na determinação de parâmetros importantes envolvidos na concepção e desempenho de muitos processos industriais. A aplicação de métodos estocásticos tem aumentado nos últimos anos, demonstrando seu potencial no estudo e análise dos diferentes sistemas em aplicações de engenharia. As rotinas estocásticas são capazes de otimizar a solução em uma ampla gama de variáveis do domínio, sendo possível a determinação dos parâmetros de interesse simultaneamente. Neste trabalho foram adotados os métodos estocásticos Luus-Jaakola (LJ) e Random Restricted Window (R2W) na obtenção dos ótimos dos parâmetros cinéticos de adsorção no sistema de cromatografia em batelada, tendo por objetivo verificar qual método forneceria o melhor ajuste entre os resultados obtidos nas simulações computacionais e os dados experimentais. Este modelo foi resolvido empregando o método de Runge- Kutta de 4 ordem para a solução de equações diferenciais ordinárias.
Resumo:
Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
Neste trabalho estudamos o problema da segregação de impurezas substitucionais em sistemas nanoestruturados metálicos formados pela justaposição de camadas (multicamadas). Utilizamos o modelo de ligações fortes (tight-binding) com um orbital por sítio para calcular a estrutura eletrônica desses sistemas, considerando a rede cristalina cubica simples em duas direções de crescimento: (001) e (011). Devido à perda de simetria do sistema, escrevemos o hamiltoniano em termos de um vetor de onda k, paralelo ao plano, e um ındice l que denota um plano arbitrario do sistema. Primeiramente, calculamos a estrutura eletrônica do sistema considerando-o formado por átomos do tipo A e, posteriormente, investigamos as modificações nessa estrutura eletrônica ao introduzirmos uma impureza do tipo B em um plano arbitrário do sistema. Calculamos o potencial introduzido por esta impureza levando-se em conta a neutralidade de carga através da regra de soma de Friedel. Calculamos a variação da energia eletrônica total ΔEl como função da posição da impureza. Como substrato, consideramos sistemas com ocupações iguais a 0.94 e 0.54 elétrons por banda, o que dentro do modelo nos permite chamá-los de Nie Cr. As impurezas sao tambem metais de transição - Mn, Fee Co. Em todos os casos investigados, foi verificado que a variação de energia eletrônica total apresenta um comportamento oscilatorio em função da posição da impureza no sistema, desde o plano superficial, até vários planos interiores do sistema. Como resultado, verificamos a ocorrencia de planos mais favoráveis à localização da impureza. Ao considerarmos um número relativamente grande de planos, um caso em particular foi destacado pelo aparecimento de um batimentono comportamento oscilatório de ΔEl. Estudamos também o comportamento da variação da energia total, quando camadas (filmes) são crescidas sobre o substrato e uma impureza do mesmo tipo das camadas é colocada no substrato. Levamos em conta a diferença de tamanho entre os átomos do substrato e os átomos dos filmes. Analisamos ainda a influência da temperatura sobre o comportamento oscilatório da energia total, considerando a expansão de Sommerfeld.
Resumo:
Apresentamos os resultados de nossa pesquisa para concepção, execuçãoo e avaliação de uma ferramenta adaptativa informatizada, denominada DIA, que permita tanto avaliar como fornecer feedback a estudantes sob uma perspectiva de avaliação formativa. Na primeira etapa, usamos os PCN: Ciências da Natureza, Matemática e suas Tecnologias (BRASIL, 1998) e as Matrizes Curriculares de Referência do Instituto Nacional de Estudos e Pesquisas Educacionais - INEP, para o Sistema de Avaliação para a Educação Básica- SAEB (BRASIL, 2005), para construir uma escala, em que os objetivos estão em ordem crescente, de acordo com o desenvolvimento vertical da construção do conhecimento em Matemática. Entrelaçamos os objetivos propostos para criar um Banco de Itens (BI), que foi usado em nossas simulações. Analisamos os resultados obtidos em nosso ensaio para avaliar o diálogo entre o BI e a escala sob a perspectiva de oferecer um diagnóstico de lacunas na construção do conhecimento matemático. Em nosso ensaio, simulamos o funcionamento da ferramenta DIA através de um teste adaptativo informatizado baseado na Teoria de Resposta ao Item (TRI). Também estamos interessados em determinar um perfil de um Banco de Itens, que seja capaz de forma significativa de dialogar com nossa escala através de TRI. A escala e o banco de itens a ela associado devem viabilizar um feedback construtivo que ajude os alunos a desenvolverem competências metacognitivas.
Resumo:
Esta tese tem por objetivo propor uma metodologia para recuperação de perfis verticais de temperatura na atmosfera com nuvens a partir de medidas de radiância feitas por satélite, usando redes neurais artificiais. Perfis verticais de temperatura são importantes condições iniciais para modelos de previsão de tempo, e são usualmente obtidos a partir de medidas de radiâncias feitas por satélites na faixa do infravermelho. No entanto, quando estas medidas são feitas na presença de nuvens, não é possível, com as técnicas atuais, efetuar a recuperação deste perfil. É uma perda significativa de informação, pois, em média, 20% dos pixels das imagens acusam presença de nuvens. Nesta tese, este problema é resolvido como um problema inverso em dois passos: o primeiro passo consiste na determinação da radiância que atinge a base da nuvem a partir da radiância medida pelos satélites; o segundo passo consiste na determinação do perfil vertical de temperaturas a partir da informação de radiância fornecida pelo primeiro passo. São apresentadas reconstruções do perfil de temperatura para quatro casos testes. Os resultados obtidos mostram que a metodologia adotada produz resultados satisfatórios e tem grande potencial de uso, permitindo incorporar informações sobre uma região mais ampla do globo e, consequentemente, melhorar os modelos de previsão do tempo.
Resumo:
Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.
Resumo:
Atualmente, existem modelos matemáticos capazes de preverem acuradamente as relações entre propriedades de estado; e esta tarefa é extremamente importante no contexto da Engenharia Química, uma vez que estes modelos podem ser empregados para avaliar a performance de processos químicos. Ademais, eles são de fundamental importância para a simulação de reservatórios de petróleo e processos de separação. Estes modelos são conhecidos como equações de estado, e podem ser usados em problemas de equilíbrios de fases, principalmente em equilíbrios líquido-vapor. Recentemente, um teorema matemático foi formulado (Teorema de Redução), fornecendo as condições para a redução de dimensionalidade de problemas de equilíbrios de fases para misturas multicomponentes descritas por equações de estado cúbicas e regras de mistura e combinação clássicas. Este teorema mostra como para uma classe bem definidade de modelos termodinâmicos (equações de estado cúbicas e regras de mistura clássicas), pode-se reduzir a dimensão de vários problemas de equilíbrios de fases. Este método é muito vantajoso para misturas com muitos componentes, promovendo uma redução significativa no tempo de computação e produzindo resultados acurados. Neste trabalho, apresentamos alguns experimentos numéricos com misturas-testes usando a técnica de redução para obter pressões de ponto de orvalho sob especificação de temperaturas.
Resumo:
Este trabalho apresenta um método para reconhecimento do padrão na biodisponibilidade do ferro, através da interação com substâncias que auxiliam a absorção como vitamina C e vitamina A e nutrientes inibidores como cálcio, fitato, oxalato, tanino e cafeína. Os dados foram obtidos através de inquérito alimentar, almoço e jantar, em crianças de 2 a 5 anos da única Creche Municipal de Paraty-RJ entre 2007 e 2008. A Análise de Componentes Principais (ACP) foi aplicada na seleção dos nutrientes e utilizou-se o Algoritmo Fuzzy C-Means (FCM) para criar os agrupamentos classificados de acordo com a biodisponibilidade do ferro. Uma análise de sensibilidade foi desenvolvida na tentativa de buscar quantidades limítrofes de cálcio a serem consumidas nas refeições. A ACP mostrou que no almoço os nutrientes que explicavam melhor a variabilidade do modelo foram ferro, vitamina C, fitato e oxalato, enquanto no jantar o cálcio se mostrou eficaz na determinação da variabilidade do modelo devido ao elevado consumo de leite e derivados. Para o almoço, a aplicação do FCM na interação dos nutrientes, notou-se que a ingestão de vitamina C foi determinante na classificação dos grupos. No jantar, a classificação de grupos foi determinada pela quantidade de ferro heme na interação com o cálcio. Na análise de sensibilidade realizada no almoço e no jantar, duas iterações do algoritmo determinaram a interferência total do cálcio na biodisponibilidade do ferro.