11 resultados para Pós-processamento

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partir de uma amostra de 30 radiografias mesiorradiais prémolares superiores, contendo um instrumento endodôntico em cada um de seus condutos, obtidas com a finalidade de odontometria, foi avaliado se a manipulação digital pela aplicação de filtros grráficos de inversão, pseudocolorização e relevo, favorece ou não a localização do ápice radiográfico.As imagens convencionais foram digitalizadas através de scanner em 300 dpi e 256 tons de cinca, tamanho original e ajuste automático de brilho e contraste, reproduzidas três vezes e submetidas aos filtros gráficos. Uma seqüência aleatória de todas as imagens foi apresentada em monitor, em condições padronizadas de visualização, a um observador habituado à utilização de imagens digitais que, através de régua eletrônica da barra de ferramentas do programa PhotoshopR, efetuou a medida da distância entre a borda superior da imagem e o limite apical para ambas as raízes, três vezes em oportunidades distintas. As quatro imagens de cada dente foram montadas em apresentação do programa PowerPointR e exibidas, com os mesmos critérios de padronização, para três observadores especialistas em endodontia, os quais qualitativamente em qual delas o limite apical de cada raiz era melhor visualizado. Através dos resultados do teste não-paramétrico de Friedman verificou-se que os valores médios para as imagens manipuladas não diferem significativamente daqueles obtidos sobre a imagem (p=0,001), onde se observa o maior coeficiente de variação. A imagem e sua versão em negativo foram classificadas como as melhores de forma mais consistente. A modalidade pseudocores e relevo receberam os piores escores, porém não de modo consistente.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A análise da iteração solo-estrutura em fundações é um importante campo de pesquisa que ainda tem um grande progresso a ser feito. No presente trabalho foi desenvolvido um programa computacional para a análise da interação solo-estrutura de fundações de concreto armado. Este tema abrange duas áreas da engenharia civil: estruturas e geotecnia. O método dos elementos finitos foi usado no trabalho na seqüência para resolver o problema considerando estado plano de defonnação e comportamento elastoplásti.co dos materiais estudados (solo, concreto e aço). A linguagem de programação MATLAB foi usada em toda esta pesquisa como alternativa ao FORTRAN. O MATLAB foi escolhido uma vez que é uma linguagem de programação que permite facilmente construir uma interfàce de pré e pósprocessamento amigável. Os passos para a solução completa do problema foram os seguintes: Primeiramente um programa foi desenvolvido considerando o comportamento elastoplástico com critérios de plastificação e ruptura específicos para o concreto e solo. Soluções analíticas fechadas foram usadas para checar a precisão do programa. O segundo passo foi a introdução do reforço de aço no concreto por meio de um modelo para armaduras. Logo após, um modelo de fissuras para o concreto 1racionado foi in1roduzido no programa. Na seqüência o programa de pré e pós-processamento foi desenvolvido para gerar a malha de elementos finitos (pré-processamento), distribuição tensões e deformações, mapa de fissuras, etc (pósprocessamento). Finalmente, os parâme1ros constitutivos do solo, concreto e aço foram calibrados e várias situações reais de interação do solo-concreto de fundações de concreto armado foram simuladas. Nesta dissertação são encontrados resultados para as pressões de contato sapata-solo. Diferentes diagramas de tensões de interfàce foram obtidos em função rigidez relativa do elemento estrutural de concreto armado-solo. Na análise mnnérica, rigidez relativa desempenhou uma relevante função no comportamento mecânico do elemento estrutural de concreto armado (sapata) e da base de assentamento (solo), uma vez ruptura em ambos os casos esteve diretamente relacionada a esta grandeza. São encon1rados, em função da rigidez relativa, resultados indicativos dos modos de falha da fundação, excessiva plastificação do solo em fundações com rigidez relativa alta, e a plastificação armaduras, esmagamento do concreto, formação de fissuras, bielas e confinamento concreto para fundações de rigidez relativa baixa. Na análise numérica, obteve-se resultados importantes com relação ao projeto de fundações. Estes resultados foram cOnITontadoscom normas, destacando-se as discordâncias com relação às recomendações da nonna brasileira Projeto e Execução de Fundações" NBR-6122 (1996) para os diagramas de tensões interface sapata-solo usados no dimensionamento de fundações de concreto armado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A qualidade SAE 1141 alia boas conformabilidade e usinabilidade em um mesmo aço – esta qualidade possui adição de teores de enxofre da ordem de 0,08 – 0,13% em peso. É largamente empregada no segmento de forjarias na confecção de componentes com relativa complexidade e exigência mecânica, tais como garfos e ponteiras para a indústria automotiva. Devido a esse fato, é imprescindível que a matéria-prima para a conformação destes componentes atenda às exigências impostas pelos esforços aplicados aos mesmos e, dado às solicitações que sofrem, apresente um desempenho satisfatório em sua forma final, principalmente no tocante à sanidade interna, visto que defeitos dessa natureza são extremamente deletérios à performance dos componentes conformados. Em função disso, o principal objetivo desta investigação é avaliar as causas potencialmente geradoras de defeitos denominados trincas internas centrais, as quais afetam fortemente a sanidade interna da matéria-prima, além de reduzir a sua incidência em barras de aço da qualidade SAE 1141. Para tanto, são apresentadas considerações sobre a avaliação destes defeitos, analisando-se as possíveis causas geradoras das trincas, as quais são caracterizadas sob o enfoque de bibliografia adequada. Através da realização de ensaios no lingotamento contínuo (LC) envolvendo a utilização do agitador eletromagnético final (FEMS), elaboração de curvas de ductilidade pelo emprego do simulador físico Gleeble para os materiais nas condições tarugo e barra laminada, experiências na laminação envolvendo análises de amostras após cada diferente grau de redução ou passe conferido ao material pelo processo e variação das taxas de resfriamento pós-processamento, busca-se reduzir as ocorrências destes defeitos, diminuindo conseqüentemente sucateamento e custos e melhorando o desempenho do material frente às expectativas dos componentes em serviço. A metodologia empregada para a detecção dos defeitos nas barras laminadas foi a submissão das mesmas ao ultra-som. Várias amostras tiveram os seus defeitos detectados através desse ensaio, os quais foram analisados e caracterizados previamente ao início da investigação das causas geradoras, balizando assim a tomada de decisão em relação aos experimentos a serem realizados. Os dados práticos foram obtidos na Gerdau Aços Especiais Piratini, onde a análise de defeitos internos gerados a partir do processo produtivo é um procedimento rotineiro. A interpretação dos resultados, bem como testes laboratoriais adicionais foram realizados na própria usina e no IAS – Instituto Argentino de Siderurgia. Em paralelo, realizou-se uma revisão na literatura aberta dos principais fundamentos e conceitos metalúrgicos referentes a trincas internas e causas de geração das mesmas, tais como, influência do FEMS na solidificação e na condição de segregação nos tarugos de LC, elementos de liga com caráter fragilizante e/ou deletério (por exemplo, hidrogênio, carbono, enxofre e manganês), influência das transformações de fase – velocidade de resfriamento pós-processamento e influência dos elementos de liga – na formação dos defeitos, entre outros. Os resultados obtidos permitiram concluir que a principal causa da geração das trincas internas do tipo centrais em barras laminadas está associada a uma combinação de variáveis. As transformações de fase, somadas a presença de altos teores de hidrogênio no aço – fato este de grande importância na geração dos defeitos detectado somente ao longo da realização do trabalho – fragilizam localmente o núcleo das barras, gerando trincas. Estas, por sua vez, têm a sua propagação facilitada através de cadeias ou redes de sulfeto de manganês, por vezes devido à alta incidência das mesmas nos aços da qualidade SAE 1141. Além disso, pode-se constatar que a geração dos defeitos é potencializada para barras de diâmetros superiores a 75,00 mm. Em barras de diâmetros menores, as falhas estão igualmente presentes e apresentam morfologia similar aos defeitos encontrados nas barras de maior diâmetro, porém, em escala não significativa, não sendo assim abordadas neste trabalho. Pode-se constatar ainda, que a redução da incidência dos defeitos do tipo trincas internas centrais em barras laminadas de diâmetros superiores a 75,00 mm – e conseqüente sucateamento – foi da ordem de mais de 95% desde o início do trabalho, reduzindo-se assim o sucateamento desta qualidade para níveis da ordem de, aproximadamente, 1,0%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho foram avaliados a morfologia e os comportamentos reológico, mecânico e viscoelástico de misturas de poliestireno (PS) com copolímeros em bloco de estireno-butadieno-estireno (SBS) com estruturas radial ou linear. Os elastômeros termoplásticos foram empregados como modificadores de impacto com o objetivo de tenacificar o poliestireno. Os polímeros puros foram caracterizados por cromatografia de permeação em gel e reometria rotacional. As misturas PS/SBS foram preparadas em extrusora de rosca simples em frações mássicas de 5, 10, 15 e 20% de SBS e analisadas por plastometria, reometria capilar, análises dinâmico-mecânicas e microscopia de transmissão. Os corpos de prova para avaliação das propriedades mecânicas das misturas, do PS e do HIPS foram moldados por injeção e os ensaios realizados foram de resistência à tração e resistência ao impacto. Todas as misturas PS/SBS apresentaram variação de viscosidade sob cisalhamento e algumas apresentaram comportamento e resistência ao impacto similares àquelas apresentadas pelas resinas de HIPS comercial. A morfologia das misturas PS/SBS diferentemente da observada no HIPS, não apresentou estrutura tipo salame com oclusões de PS em PB. Foram observadas partículas dispersas de PB em formas esférica e irregular distribuídas em uma matriz contínua. Isto é uma conseqüência da natureza química do polímero, do seu processamento, da composição e da razão de viscosidades entre os componentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho é composto por dois estudos independentes sobre o Transtorno de Estresse Pós-Traumático (TEPT). O primeiro estudo empregou procedimentos paralelos de análise de componentes principais em duas versões do Screen for Posttraumatic Stress Symptoms (SPTSS) respondidas por estudantes universitários norte-americanos (n = 2.389) e brasileiros (n = 755). Três componentes de primeira ordem (revivência/ansiedade; depressão; evitação) e um componente de segunda ordem (TEPT) representaram a estrutura interna do SPTSS. O segundo estudo empregou testes neuropsicológicos em estudantes universitários (N = 72) com graus variados de sintomatologia pós-traumática. Foi encontrada diferença significativa no desempenho em tarefas de atenção seletiva, função executiva e processamento emocional. Os estudos realizados contribuem para a compreensão do modelo conceitual e dos prejuízos cognitivos associados ao TEPT.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Vários resultados na literatura fornecem fortes evidências de que o processamento de memórias requerem a participação da proteína cinase C (PKC) em estruturas sabidamente necessárias para este processamento, como o hipocampo, a amígdala basolateral (ABL) e o córtex parietal posterior (CPP). Neste trabalho mostramos que o inibidor seletivo das isoformas cálcio-dependentes da PKC, Go 6976, produz um efeito amnésico dosedependente sobre a consolidação de memória espacial de longa duração em ratos submetidos ao treino no labirinto aquático de Morris (LAM), quando infundido na região CA1 do hipocampo dorsal 15 minutos pré-treino, imediatamente pós-treino ou 15 minutos pré-teste para esta tarefa, sem alterar a atividade locomotora dos animais. Ainda na tarefa do LAM, o Go 6976 também apresentou este efeito amnésico sobre a reconsolidação de memórias espaciais de longa duração recentes e antigas, bem como sobre a consolidação da memória espacial de longa duração relativa ao treino reverso no LAM, mas não teve efeito sobre a memória espacial de curta duração nem sobre a extinção da memória espacial de longa duração. Já na tarefa de esquiva inibitória (EI) o Go 6976 produziu um efeito amnésico quando infundido na ABL imediatamente ou 30 minutos pós-treino, ou no CPP 270 ou 360 minutos pós-treino, enquanto o inibidor não-seletivo das isoformas da PKC, Go 7874, produziu os mesmos efeitos, exceto por, no CPP, causar amnésia quando infundido 180 ao invés de 270 minutos pós-treino. Estes resultados indicam que as PKCs, sobretudo as cálcio-dependentes, são importantes para o processamento de memórias espaciais e aversivas, apresentando na consolidação de memórias aversivas distintos tempos críticos de ativação em diferentes estruturas cerebrais, e sendo necessárias para a aquisição, consolidação, evocação e reconsolidação de memórias espaciais.