4 resultados para Characteristic Initial Value Problem

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O clareamento dental é o meio disponível mais simples, comum e conservador para o cirurgião-dentista proporcionar aos pacientes o padrão de cor de seus dentes mais desejado. Em alguns casos, os dentes que vão ser clareados podem apresentar restaurações realizadas com compósitos dentais, que são mais suscetíveis a alterações químicas, quando comparados a outros materiais restauradores. Alguns estudos mostraram que diferentes concentrações de agentes clareadores levaram a um aumento significativo da rugosidade superficial e das porosidades em compósitos dentais. Este estudo avaliou o efeito de dois agentes clareadores (Whiteness HP Blue 20%, Whiteness HP Max) sobre a rugosidade superficial de dois compósitos dentais, um micro-híbrido (Esthet X, Denstply) e outro nanoparticulado (Z 350, 3M ESPE). Um total de oito corpos de prova (9 x 2 mm) foram confeccionados com auxílio de uma matriz de teflon, sendo divididos em 4 grupos (Esthet X + Whiteness HP Blue 20%; Esthet X + Whiteness HP Max; Z 350 + Whiteness HP Blue 20%; Z 350 + Whiteness HP Max), sendo n=2. Os corpos de prova foram armazenados em saliva artificial neutra e, após 24 horas, foram polidos com discos de óxido de Alumínio (Sof-lex, 3M ESPE). Após sete dias de imersão salivar, cada corpo de prova foi levado a um microscópio de força atômica para obtenção do valor inicial de rugosidade superficial (Ra em nm). Em seguida, sem remover o corpo de prova do microscópio, o agente clareador foi aplicado sobre a superfície do corpo de prova, segundo as instruções do fabricante, de modo que permitisse uma posterior observação da mesma área do corpo de prova observada inicialmente, para obtenção do valor final de rugosidade superficial. Imagens em duas e três dimensões foram obtidas de cada corpo de prova para observação de alterações da topografia. Os resultados foram tratados estatisticamente por ANOVA e pelo teste de contraste Student-Newman-Keuls (p < 0,05). Não houve alteração significativa na rugosidade superficial (Ra) dos corpos da prova de compósitos micro-híbrido e nanoparticulado, submetidos aos agentes clareadores Whiteness HP Blue 20% e Whiteness HP Maxx. No entanto, independente do agente clareador utilizado, foram observadas maiores alterações topográficas nas imagens de microscopia de força atômica da superfície do compósito micro-híbrido do que nas imagens do nanoparticulado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Extensos estudos realizados nas últimas décadas sobre a propagação de ondas ultrassônicas em sólidos levaram ao desenvolvimento de técnicas não destrutivas para a avaliação da segurança e integridade de estruturas e componentes industriais. O interesse na aplicação de técnicas ultrassônicas para medição de tensões aplicadas e residuais decorre da mudança mensurável da velocidade das ondas ultrassônicas na presença de um campo de tensões, fenômeno conhecido como efeito acustoelástico. Uma teoria de acustoelasticidade fornece um meio atrativo e não destrutivo de medir a tensão média ao longo do caminho percorrido pela onda. O estudo da propagação das ondas ultrassônicas em meios homogêneos anisotrópicos sob tensão conduz a um problema não linear de autovalores dado pela equação de Christoffel generalizada. A característica não linear deste problema decorre da interdependência entre as constantes elásticas efetivas do material e as tensões atuantes. A medição experimental de tensões por técnicas ultrassônicas é um problema inverso da acustoelasticidade. Esta dissertação apresenta a implementação de um algoritmo numérico, baseado no método proposto por Degtyar e Rokhlin, para solução do problema inverso da acustoelasticidade em sólidos ortotrópicos sujeitos a um estado plano de tensões. A solução da equação de Christoffel generalizada apresenta dificuldades de natureza numérica e prática. A estabilidade e a precisão do algoritmo desenvolvido, bem como a influência das incertezas na medição experimental das velocidades das ondas ultrassônicas, foram então investigadas. Dados sintéticos para as velocidades das ondas ultrassônicas de incidência oblíqua em uma placa sujeita a um estado plano de tensões foram gerados pela solução direta da equação de Christoffel generalizada para ilustrar a aplicação do algoritmo desenvolvido. O objetivo maior desta dissertação é a disponibilização de uma nova ferramenta de cálculo para suporte às atividades experimentais de medição de tensões por ultrassom no país.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em 1828 foi observado um fenômeno no microscópio em que se visualizava minúsculos grãos de pólen mergulhados em um líquido em repouso que mexiam-se de forma aleatória, desenhando um movimento desordenado. A questão era compreender este movimento. Após cerca de 80 anos, Einstein (1905) desenvolveu uma formulação matemática para explicar este fenômeno, tratado por movimento Browniano, teoria cada vez mais desenvolvida em muitas das áreas do conhecimento, inclusive recentemente em modelagem computacional. Objetiva-se pontuar os pressupostos básicos inerentes ao passeio aleatório simples considerando experimentos com e sem problema de valor de contorno para melhor compreensão ao no uso de algoritmos aplicados a problemas computacionais. Foram explicitadas as ferramentas necessárias para aplicação de modelos de simulação do passeio aleatório simples nas três primeiras dimensões do espaço. O interesse foi direcionado tanto para o passeio aleatório simples como para possíveis aplicações para o problema da ruína do jogador e a disseminação de vírus em rede de computadores. Foram desenvolvidos algoritmos do passeio aleatório simples unidimensional sem e com o problema do valor de contorno na plataforma R. Similarmente, implementados para os espaços bidimensionais e tridimensionais,possibilitando futuras aplicações para o problema da disseminação de vírus em rede de computadores e como motivação ao estudo da Equação do Calor, embora necessita um maior embasamento em conceitos da Física e Probabilidade para dar continuidade a tal aplicação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.