6 resultados para Two Approaches
em Biblioteca de Teses e Dissertações da USP
Resumo:
As Ciências Forenses empregam a técnica de Reconstrução Facial buscando aumentar as possibilidades de reconhecimento humano. Após análise antropológica, a face é esculpida sobre o crânio esqueletizado e divulgada na mídia. Existem várias metodologias para a modelagem do rosto e das características da face, bem como vários dados de espessuras de tecidos moles que auxiliam no contorno facial. Com o intuito de investigar se existe uma metodologia que favoreça mais reconhecimentos e que permita uma maior semelhança com o indivíduo, este trabalho buscou comparar reconstruções faciais manuais feitas com duas abordagens para o preenchimento dos tecidos moles (métodos Americano e de Manchester) e para a predição dos olhos, nariz, boca e orelhas. Também buscou comparar reconstruções realizadas com quatro tabelas de espessuras de tecidos moles, desenvolvidas para brasileiros por estudos prévios, observando a possibilidade de unir esses dados para auxiliar na reconstrução. Um quarto objetivo foi averiguar se existe influência do sexo e do conhecimento anatômico ou forense na frequência de reconhecimentos. O estudo foi dividido em duas fases. Na primeira, duas reconstruções foram realizadas para dois indivíduos alvos (um homem e uma mulher) com os métodos Americano e de Manchester, aplicando dois guias para olhos, nariz, boca e orelhas. As reconstruções foram avaliadas por quarenta indivíduos (homens e mulheres, divididos em 4 grupos - alunos de graduação em Odontologia que não passaram pela disciplina de Odontologia Legal, alunos de graduação em Odontologia que passaram pela disciplina, especialistas em Odontologia Legal e indivíduos que não possuíam conhecimento de anatomia humana) por meio dos testes de reconhecimento e semelhança. Para o alvo feminino, as frequências de reconhecimentos foram 20% e 10% para os métodos Americano e de Manchester, respectivamente; para o alvo masculino, as frequências foram 35% e 17,5%. Em relação à semelhança, as medianas foram menores que 3 (em uma escala de 1 a 5); entretanto, foi verificada uma exceção para a escultura feita com o método Americano para o alvo masculino, a qual apresentou mediana 3. Na segunda fase, reconstruções faciais para quatro alvos (dois homens e duas mulheres) foram obtidas com o método Americano, considerando as quatro tabelas de espessuras de tecidos moles para brasileiros. Dezesseis reconstruções foram avaliadas por cento e vinte indivíduos, também pelos testes de reconhecimento e semelhança. Assim como na fase I, foram considerados o sexo e o grupo dos avaliadores. Para o alvo 1, as proporções de acertos são significativamente maiores para reconstruções feitas com as tabelas de cadáveres (44% e 38%) em relação às com os dados de exames de imagem. Para o alvo 4, as proporções de acertos com os dados de cadáveres (Tedeschi-Oliveira et al.) e com os de ressonância magnética foram significativamente maiores comparados às reconstruções com dados de tomografias computadorizadas. Em relação à semelhança, somente o alvo 1 mostrou diferenças significativas de frequências de semelhança leve entre reconstruções. Além disso, não houve influência nem do sexo, nem do conhecimento de anatomia nas frequências de reconhecimentos corretos. Espera-se que a tabela proposta possa ser empregada para a população brasileira.
Resumo:
O empacotamento irregular de fita é um grupo de problemas na área de corte e empacotamento, cuja aplicação é observada nas indústrias têxtil, moveleira e construção naval. O problema consiste em definir uma configuração de itens irregulares de modo que o comprimento do contêiner retangular que contém o leiaute seja minimizado. A solução deve ser válida, isto é, não deve haver sobreposição entre os itens, que não devem extrapolar as paredes do contêiner. Devido a aspectos práticos, são admitidas até quatro orientações para o item. O volume de material desperdiçado está diretamente relacionado à qualidade do leiaute obtido e, por este motivo, uma solução eficiente pressupõe uma vantagem econômica e resulta em um menor impacto ambiental. O objetivo deste trabalho consiste na geração automática de leiautes de modo a obter níveis de compactação e tempo de processamento compatíveis com outras soluções na literatura. A fim de atingir este objetivo, são realizadas duas propostas de solução. A primeira consiste no posicionamento sequencial dos itens de modo a maximizar a ocorrência de posições de encaixe, que estão relacionadas à restrição de movimento de um item no leiaute. Em linhas gerais, várias sequências de posicionamentos são exploradas com o objetivo de encontrar a solução mais compacta. Na segunda abordagem, que consiste na principal proposta deste trabalho, métodos rasterizados são aplicados para movimentar itens de acordo com uma grade de posicionamento, admitindo sobreposição. O método é baseado na estratégia de minimização de sobreposição, cujo objetivo é a eliminação da sobreposição em um contêiner fechado. Ambos os algoritmos foram testados utilizando o mesmo conjunto de problemas de referência da literatura. Foi verificado que a primeira estratégia não foi capaz de obter soluções satisfatórias, apesar de fornecer informações importantes sobre as propriedades das posições de encaixe. Por outro lado, a segunda abordagem obteve resultados competitivos. O desempenho do algoritmo também foi compatível com outras soluções, inclusive em casos nos quais o volume de dados era alto. Ademais, como trabalho futuro, o algoritmo pode ser estendido de modo a possibilitar a entrada de itens de geometria genérica, o que pode se tornar o grande diferencial da proposta.
Resumo:
O sucesso de estratégias de controle preditivo baseado em modelo (MPC, na sigla em inglês) tanto em ambiente industrial quanto acadêmico tem sido marcante. No entanto, ainda há diversas questões em aberto na área, especialmente quando a hipótese simplificadora de modelo perfeito é abandonada. A consideração explícita de incertezas levou a importantes progressos na área de controle robusto, mas esta ainda apresenta alguns problemas: a alta demanda computacional e o excesso de conservadorismo são questões que podem ter prejudicado a aplicação de estratégias de controle robusto na prática. A abordagem de controle preditivo estocástico (SMPC, na sigla em inglês) busca a redução do conservadorismo através da incorporação de informação estatística dos ruídos. Como processos na indústria química sempre estão sujeito a distúrbios, seja devido a diferenças entre planta e modelo ou a distúrbios não medidos, está técnica surge como uma interessante alternativa para o futuro. O principal objetivo desta tese é o desenvolvimento de algoritmos de SMPC que levem em conta algumas das especificidades de tais processos, as quais não foram adequadamente tratadas na literatura até o presente. A contribuição mais importante é a inclusão de ação integral no controlador através de uma descrição do modelo em termos de velocidade. Além disso, restrições obrigatórias (hard) nas entradas associadas a limites físicos ou de segurança e restrições probabilísticas nos estados normalmente advindas de especificações de produtos também são consideradas na formulação. Duas abordagens foram seguidas neste trabalho, a primeira é mais direta enquanto a segunda fornece garantias de estabilidade em malha fechada, contudo aumenta o conservadorismo. Outro ponto interessante desenvolvido nesta tese é o controle por zonas de sistemas sujeitos a distúrbios. Essa forma de controle é comum na indústria devido à falta de graus de liberdade, sendo a abordagem proposta a primeira contribuição da literatura a unir controle por zonas e SMPC. Diversas simulações de todos os controladores propostos e comparações com modelos da literatura são exibidas para demonstrar o potencial de aplicação das técnicas desenvolvidas.
Resumo:
A eficiência econômica da bovinocultura leiteira está relacionada à utilização de animais que apresentem, concomitantemente, bom desempenho quanto à produção, reprodução, saúde e longevidade. Nisto, o índice de seleção configura-se como ferramenta importante ao aumento da lucratividade nesse sistema, visto que permite a seleção de reprodutores para várias características simultaneamente, considerando a relação entre elas bem como a relevância econômica das mesmas. Com a recente disponibilidade de dados genômicos tornou-se ainda possível expandir a abrangência e acurácia dos índices de seleção por meio do aumento do número e qualidade das informações consideradas. Nesse contexto, dois estudos foram desenvolvidos. No primeiro, o objetivo foi estimar parâmetros genéticos e valores genéticos (VG) para características relacionadas à produção e qualidade do leite incluindo-se a informação genômica na avaliação genética. Foram utilizadas medidas de idade ao primeiro parto (IPP), produção de leite (PROD), teor de gordura (GOR), proteína (PROT), lactose, caseína, escore de células somáticas (ECS) e perfil de ácidos graxos de 4.218 vacas bem como os genótipos de 755 vacas para 57.368 polimorfismos de nucleotídeo único (SNP). Os componentes de variância e VG foram obtidos por meio de um modelo misto animal, incluindo-se os efeitos de grupos de contemporâneas, ordem de lactação, dias em lactação e os efeitos aditivo genético, ambiente permanente e residual. Duas abordagens foram desenvolvidas: uma tradicional, na qual a matriz de relacionamentos é baseada no pedigree; e uma genômica, na qual esta matriz é construída combinando-se a informação de pedigree e dos SNP. As herdabilidades variaram de 0,07 a 0,39. As correlações genéticas entre PROD e os componentes do leite variaram entre -0,45 e -0,13 enquanto correlações altas e positivas foram estimadas entre GOR e os ácidos graxos. O uso da abordagem genômica não alterou as estimativas de parâmetros genéticos; contudo, houve aumento entre 1,5% e 6,8% na acurácia dos VG, à exceção de IPP, para a qual houve uma redução de 1,9%. No segundo estudo, o objetivo foi incorporar a informação genômica no desenvolvimento de índices econômicos de seleção. Neste, os VG para PROD, GOR, PROT, teor de ácidos graxos insaturados (INSAT), ECS e vida produtiva foram combinados em índices de seleção ponderados por valores econômicos estimados sob três cenários de pagamento: exclusivamente por volume de leite (PAG1); por volume e por componentes do leite (PAG2); por volume e componentes do leite incluindo INSAT (PAG3). Esses VG foram preditos a partir de fenótipos de 4.293 vacas e genótipos de 755 animais em um modelo multi-característica sob as abordagens tradicional e genômica. O uso da informação genômica influenciou os componentes de variância, VG e a resposta à seleção. Entretanto, as correlações de ranking entre as abordagens foram altas nos três cenários, com valores entre 0,91 e 0,99. Diferenças foram principalmente observadas entre PAG1 e os demais cenários, com correlações entre 0,67 e 0,88. A importância relativa das características e o perfil dos melhores animais foram sensíveis ao cenário de remuneração considerado. Assim, verificou-se como essencial a consideração dos valores econômicos das características na avaliação genética e decisões de seleção.
Resumo:
Uma imagem engloba informação que precisa ser organizada para interpretar e compreender seu conteúdo. Existem diversas técnicas computacionais para extrair a principal informação de uma imagem e podem ser divididas em três áreas: análise de cor, textura e forma. Uma das principais delas é a análise de forma, por descrever características de objetos baseadas em seus pontos fronteira. Propomos um método de caracterização de imagens, por meio da análise de forma, baseada nas propriedades espectrais do laplaciano em grafos. O procedimento construiu grafos G baseados nos pontos fronteira do objeto, cujas conexões entre vértices são determinadas por limiares T_l. A partir dos grafos obtêm-se a matriz de adjacência A e a matriz de graus D, as quais definem a matriz Laplaciana L=D -A. A decomposição espectral da matriz Laplaciana (autovalores) é investigada para descrever características das imagens. Duas abordagens são consideradas: a) Análise do vetor característico baseado em limiares e a histogramas, considera dois parâmetros o intervalo de classes IC_l e o limiar T_l; b) Análise do vetor característico baseado em vários limiares para autovalores fixos; os quais representam o segundo e último autovalor da matriz L. As técnicas foram testada em três coleções de imagens: sintéticas (Genéricas), parasitas intestinais (SADPI) e folhas de plantas (CNShape), cada uma destas com suas próprias características e desafios. Na avaliação dos resultados, empregamos o modelo de classificação support vector machine (SVM), o qual avalia nossas abordagens, determinando o índice de separação das categorias. A primeira abordagem obteve um acerto de 90 % com a coleção de imagens Genéricas, 88 % na coleção SADPI, e 72 % na coleção CNShape. Na segunda abordagem, obtém-se uma taxa de acerto de 97 % com a coleção de imagens Genéricas; 83 % para SADPI e 86 % no CNShape. Os resultados mostram que a classificação de imagens a partir do espectro do Laplaciano, consegue categorizá-las satisfatoriamente.
Resumo:
As formulações baseadas na mecânica do contínuo, embora precisas até certo ponto, por vezes não podem ser utilizadas, ou não são conceitualmente corretas para o entendimento de fenômenos em escalas reduzidas. Estas limitações podem aparecer no estudo dos fenômenos tribológicos em escala nanométrica, que passam a necessitar de novos métodos experimentais, teóricos e computacionais que permitam explorar estes fenômenos com a resolução necessária. Simulações atomísticas são capazes de descrever fenômenos em pequena escala, porém, o número necessário de átomos modelados e, portanto, o custo computacional - geralmente torna-se bastante elevado. Por outro lado, os métodos de simulação associados à mecânica do contínuo são mais interessantes em relação ao custo computacional, mas não são precisos na escala atômica. A combinação entre essas duas abordagens pode, então, permitir uma compreensão mais realista dos fenômenos da tribologia. Neste trabalho, discutem-se os conceitos básicos e modelos de atrito em escala atômica e apresentam-se estudos, por meio de simulação numérica, para a análise e compreensão dos mecanismos de atrito e desgaste no contato entre materiais. O problema é abordado em diferentes escalas, e propõe-se uma abordagem conjunta entre a Mecânica do Contínuo e a Dinâmica Molecular. Para tanto, foram executadas simulações numéricas, com complexidade crescente, do contato entre superfícies, partindo-se de um primeiro modelo que simula o efeito de defeitos cristalinos no fenômeno de escorregamento puro, considerando a Dinâmica Molecular. Posteriormente, inseriu-se, nos modelos da mecânica do contínuo, considerações sobre o fenômeno de adesão. A validação dos resultados é feita pela comparação entre as duas abordagens e com a literatura.