7 resultados para Algoritmos iterativos de reconstrução
em Biblioteca de Teses e Dissertações da USP
Resumo:
As análises biplot que utilizam os modelos de efeitos principais aditivos com inter- ação multiplicativa (AMMI) requerem matrizes de dados completas, mas, frequentemente os ensaios multiambientais apresentam dados faltantes. Nesta tese são propostas novas metodologias de imputação simples e múltipla que podem ser usadas para analisar da- dos desbalanceados em experimentos com interação genótipo por ambiente (G×E). A primeira, é uma nova extensão do método de validação cruzada por autovetor (Bro et al, 2008). A segunda, corresponde a um novo algoritmo não-paramétrico obtido por meio de modificações no método de imputação simples desenvolvido por Yan (2013). Também é incluído um estudo que considera sistemas de imputação recentemente relatados na literatura e os compara com o procedimento clássico recomendado para imputação em ensaios (G×E), ou seja, a combinação do algoritmo de Esperança-Maximização com os modelos AMMI ou EM-AMMI. Por último, são fornecidas generalizações da imputação simples descrita por Arciniegas-Alarcón et al. (2010) que mistura regressão com aproximação de posto inferior de uma matriz. Todas as metodologias têm como base a decomposição por valores singulares (DVS), portanto, são livres de pressuposições distribucionais ou estruturais. Para determinar o desempenho dos novos esquemas de imputação foram realizadas simulações baseadas em conjuntos de dados reais de diferentes espécies, com valores re- tirados aleatoriamente em diferentes porcentagens e a qualidade das imputações avaliada com distintas estatísticas. Concluiu-se que a DVS constitui uma ferramenta útil e flexível na construção de técnicas eficientes que contornem o problema de perda de informação em matrizes experimentais.
Resumo:
A necessidade de obter solução de grandes sistemas lineares resultantes de processos de discretização de equações diferenciais parciais provenientes da modelagem de diferentes fenômenos físicos conduz à busca de técnicas numéricas escaláveis. Métodos multigrid são classificados como algoritmos escaláveis.Um estimador de erros deve estar associado à solução numérica do problema discreto de modo a propiciar a adequada avaliação da solução obtida pelo processo de aproximação. Nesse contexto, a presente tese caracteriza-se pela proposta de reutilização das estruturas matriciais hierárquicas de operadores de transferência e restrição dos métodos multigrid algébricos para acelerar o tempo de solução dos sistemas lineares associados à equação do transporte de contaminantes em meio poroso saturado. Adicionalmente, caracteriza-se pela implementação das estimativas residuais para os problemas que envolvem dados constantes ou não constantes, os regimes de pequena ou grande advecção e pela proposta de utilização das estimativas residuais associadas ao termo de fonte e à condição inicial para construir procedimentos adaptativos para os dados do problema. O desenvolvimento dos códigos do método de elementos finitos, do estimador residual e dos procedimentos adaptativos foram baseados no projeto FEniCS, utilizando a linguagem de programação PYTHONR e desenvolvidos na plataforma Eclipse. A implementação dos métodos multigrid algébricos com reutilização considera a biblioteca PyAMG. Baseado na reutilização das estruturas hierárquicas, os métodos multigrid com reutilização com parâmetro fixo e automática são propostos, e esses conceitos são estendidos para os métodos iterativos não-estacionários tais como GMRES e BICGSTAB. Os resultados numéricos mostraram que o estimador residual captura o comportamento do erro real da solução numérica, e fornece algoritmos adaptativos para os dados cuja malha retornada produz uma solução numérica similar à uma malha uniforme com mais elementos. Adicionalmente, os métodos com reutilização são mais rápidos que os métodos que não empregam o processo de reutilização de estruturas. Além disso, a eficiência dos métodos com reutilização também pode ser observada na solução do problema auxiliar, o qual é necessário para obtenção das estimativas residuais para o regime de grande advecção. Esses resultados englobam tanto os métodos multigrid algébricos do tipo SA quanto os métodos pré-condicionados por métodos multigrid algébrico SA, e envolvem o transporte de contaminantes em regime de pequena e grande advecção, malhas estruturadas e não estruturadas, problemas bidimensionais, problemas tridimensionais e domínios com diferentes escalas.
Resumo:
As Ciências Forenses empregam a técnica de Reconstrução Facial buscando aumentar as possibilidades de reconhecimento humano. Após análise antropológica, a face é esculpida sobre o crânio esqueletizado e divulgada na mídia. Existem várias metodologias para a modelagem do rosto e das características da face, bem como vários dados de espessuras de tecidos moles que auxiliam no contorno facial. Com o intuito de investigar se existe uma metodologia que favoreça mais reconhecimentos e que permita uma maior semelhança com o indivíduo, este trabalho buscou comparar reconstruções faciais manuais feitas com duas abordagens para o preenchimento dos tecidos moles (métodos Americano e de Manchester) e para a predição dos olhos, nariz, boca e orelhas. Também buscou comparar reconstruções realizadas com quatro tabelas de espessuras de tecidos moles, desenvolvidas para brasileiros por estudos prévios, observando a possibilidade de unir esses dados para auxiliar na reconstrução. Um quarto objetivo foi averiguar se existe influência do sexo e do conhecimento anatômico ou forense na frequência de reconhecimentos. O estudo foi dividido em duas fases. Na primeira, duas reconstruções foram realizadas para dois indivíduos alvos (um homem e uma mulher) com os métodos Americano e de Manchester, aplicando dois guias para olhos, nariz, boca e orelhas. As reconstruções foram avaliadas por quarenta indivíduos (homens e mulheres, divididos em 4 grupos - alunos de graduação em Odontologia que não passaram pela disciplina de Odontologia Legal, alunos de graduação em Odontologia que passaram pela disciplina, especialistas em Odontologia Legal e indivíduos que não possuíam conhecimento de anatomia humana) por meio dos testes de reconhecimento e semelhança. Para o alvo feminino, as frequências de reconhecimentos foram 20% e 10% para os métodos Americano e de Manchester, respectivamente; para o alvo masculino, as frequências foram 35% e 17,5%. Em relação à semelhança, as medianas foram menores que 3 (em uma escala de 1 a 5); entretanto, foi verificada uma exceção para a escultura feita com o método Americano para o alvo masculino, a qual apresentou mediana 3. Na segunda fase, reconstruções faciais para quatro alvos (dois homens e duas mulheres) foram obtidas com o método Americano, considerando as quatro tabelas de espessuras de tecidos moles para brasileiros. Dezesseis reconstruções foram avaliadas por cento e vinte indivíduos, também pelos testes de reconhecimento e semelhança. Assim como na fase I, foram considerados o sexo e o grupo dos avaliadores. Para o alvo 1, as proporções de acertos são significativamente maiores para reconstruções feitas com as tabelas de cadáveres (44% e 38%) em relação às com os dados de exames de imagem. Para o alvo 4, as proporções de acertos com os dados de cadáveres (Tedeschi-Oliveira et al.) e com os de ressonância magnética foram significativamente maiores comparados às reconstruções com dados de tomografias computadorizadas. Em relação à semelhança, somente o alvo 1 mostrou diferenças significativas de frequências de semelhança leve entre reconstruções. Além disso, não houve influência nem do sexo, nem do conhecimento de anatomia nas frequências de reconhecimentos corretos. Espera-se que a tabela proposta possa ser empregada para a população brasileira.
Resumo:
Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).
Resumo:
INTRODUÇÃO: Os enxertos de gordura tem se mostrado como uma poderosa técnica cirúrgica em reconstrução mamaria secundária e os enxertos enriquecidos com células-tronco, além de suas ações parácrinas, vem apresentando resultados encorajadores no que tange a persistência volumétrica. OBJETIVO: Este estudo clínico teve como objetivo analisar comparativamente quantitativa e qualitativamente enxertos de gordura enriquecidos com células da fração vásculoestromal em reconstrução mamária secundária e a incidência de complicações. MÉTODO: Nós desenvolvemos um método que produz enxertos de gordura, na sala de cirurgia, em uma taxa de enriquecimento maior que os já publicados (2:1). Este estudo clínico prospectivo e controlado analisou qualitativa e quantitativamente enxertos de gordura com (GT - grupo tronco) e sem (GC - grupo controle) adição das células da fração vásculo-estromal fresca em reconstrução mamária secundária; através de volumetria mamária por RNM de mamas, imunofenotipagem e contagem celular. Também foram estudados os resultados estéticos, a satisfação das pacientes e as complicações. RESULTADOS: A persistência volumétrica no GT foi 78,9% e 51,4% no GC, entretanto não houve diferença estatisticamente significativa entre os grupos. CD90 foi o marcador mais expresso e que alcançou diferença significante e ao mesmo tempo apresentou correlação positiva entre a sua expressão e a persistência volumétrica (r=0.651, p=0.03). Necrose gordurosa ocorreu, isoladamente em 4 pacientes do GT submetidas à radioterapia e nenhuma paciente do GC apresentou este evento. Desta forma, pacientes do GC mostraram tendência de estar mais satisfeitas com o enxerto de gordura. Nos dois grupos, os resultados estéticos foram iguais e não foram observadas recidivas loco-regionais. CONCLUSÃO: Os resultados do enriquecimento em uma taxa maior que as já publicadas são encorajadores, apesar de a persistência volumétrica não ter alcançado diferença estatisticamente significante entre os grupos. Enxertos de gordura enriquecidos na proporção 2:1 podem não ser indicados para pacientes submetidas à radioterapia apesar de terem se mostrados seguros num tempo de seguimento de 3 anos
Resumo:
Nas últimas décadas, a poluição sonora tornou-se um grande problema para a sociedade. É por esta razão que a indústria tem aumentado seus esforços para reduzir a emissão de ruído. Para fazer isso, é importante localizar quais partes das fontes sonoras são as que emitem maior energia acústica. Conhecer os pontos de emissão é necessário para ter o controle das mesmas e assim poder reduzir o impacto acústico-ambiental. Técnicas como \"beamforming\" e \"Near-Field Acoustic Holography\" (NAH) permitem a obtenção de imagens acústicas. Essas imagens são obtidas usando um arranjo de microfones localizado a uma distância relativa de uma fonte emissora de ruído. Uma vez adquiridos os dados experimentais pode-se obter a localização e magnitude dos principais pontos de emissão de ruído. Do mesmo modo, ajudam a localizar fontes aeroacústicas e vibro acústicas porque são ferramentas de propósito geral. Usualmente, estes tipos de fontes trabalham em diferentes faixas de frequência de emissão. Recentemente, foi desenvolvida a transformada de Kronecker para arranjos de microfones, a qual fornece uma redução significativa do custo computacional quando aplicada a diversos métodos de reconstrução de imagens, desde que os microfones estejam distribuídos em um arranjo separável. Este trabalho de mestrado propõe realizar medições com sinais reais, usando diversos algoritmos desenvolvidos anteriormente em uma tese de doutorado, quanto à qualidade do resultado obtido e à complexidade computacional, e o desenvolvimento de alternativas para tratamento de dados quando alguns microfones do arranjo apresentarem defeito. Para reduzir o impacto de falhas em microfones e manter a condição de que o arranjo seja separável, foi desenvolvida uma alternativa para utilizar os algoritmos rápidos, eliminando-se apenas os microfones com defeito, de maneira que os resultados finais serão obtidos levando-se em conta todos os microfones do arranjo.
Resumo:
A presença da Medicina Nuclear como modalidade de obtenção de imagens médicas é um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de analisar o comportamento metabólico do paciente, traduzindo-se em diagnósticos precoces. Entretanto, sabe-se que a quantificação em Medicina Nuclear é dificultada por diversos fatores, entre os quais estão a correção de atenuação, espalhamento, algoritmos de reconstrução e modelos assumidos. Neste contexto, o principal objetivo deste projeto foi melhorar a acurácia e a precisão na análise de imagens de PET/CT via processos realísticos e bem controlados. Para esse fim, foi proposta a elaboração de uma estrutura modular, a qual está composta por um conjunto de passos consecutivamente interligados começando com a simulação de phantoms antropomórficos 3D para posteriormente gerar as projeções realísticas PET/CT usando a plataforma GATE (com simulação de Monte Carlo), em seguida é aplicada uma etapa de reconstrução de imagens 3D, na sequência as imagens são filtradas (por meio do filtro de Anscombe/Wiener para a redução de ruído Poisson caraterístico deste tipo de imagens) e, segmentadas (baseados na teoria Fuzzy Connectedness). Uma vez definida a região de interesse (ROI) foram produzidas as Curvas de Atividade de Entrada e Resultante requeridas no processo de análise da dinâmica de compartimentos com o qual foi obtida a quantificação do metabolismo do órgão ou estrutura de estudo. Finalmente, de uma maneira semelhante imagens PET/CT reais fornecidas pelo Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) foram analisadas. Portanto, concluiu-se que a etapa de filtragem tridimensional usando o filtro Anscombe/Wiener foi relevante e de alto impacto no processo de quantificação metabólica e em outras etapas importantes do projeto em geral.