960 resultados para Pós-processamento


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partir de uma amostra de 30 radiografias mesiorradiais prémolares superiores, contendo um instrumento endodôntico em cada um de seus condutos, obtidas com a finalidade de odontometria, foi avaliado se a manipulação digital pela aplicação de filtros grráficos de inversão, pseudocolorização e relevo, favorece ou não a localização do ápice radiográfico.As imagens convencionais foram digitalizadas através de scanner em 300 dpi e 256 tons de cinca, tamanho original e ajuste automático de brilho e contraste, reproduzidas três vezes e submetidas aos filtros gráficos. Uma seqüência aleatória de todas as imagens foi apresentada em monitor, em condições padronizadas de visualização, a um observador habituado à utilização de imagens digitais que, através de régua eletrônica da barra de ferramentas do programa PhotoshopR, efetuou a medida da distância entre a borda superior da imagem e o limite apical para ambas as raízes, três vezes em oportunidades distintas. As quatro imagens de cada dente foram montadas em apresentação do programa PowerPointR e exibidas, com os mesmos critérios de padronização, para três observadores especialistas em endodontia, os quais qualitativamente em qual delas o limite apical de cada raiz era melhor visualizado. Através dos resultados do teste não-paramétrico de Friedman verificou-se que os valores médios para as imagens manipuladas não diferem significativamente daqueles obtidos sobre a imagem (p=0,001), onde se observa o maior coeficiente de variação. A imagem e sua versão em negativo foram classificadas como as melhores de forma mais consistente. A modalidade pseudocores e relevo receberam os piores escores, porém não de modo consistente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Atmospheric Discharges are responsible for several lost in the electrical system therefore it´s done studies to find ways to reduce the problem caused by discharges. This branch of engineering is necessary the gathering, stock and analysis of large quantity of data to validate or refuse the many studies produced about it The CENDAT proposed a project to collect data on induced voltages in distribution lines and current waveform of the lightning, but a difficulty that arose was the accumulation of data due to lack of manpower available to catalog all the data collected. Thinking in this difficulty, the engineer Acacio Silva Neto CENDAT´s researcher with trainees began to develop a program to solve this problem. This work keeps the development of this program in order to solve the problem of accumulation of data

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A padronização para a fabricação de instrumentos endodônticos em aço inoxidável contribuiu para o desenvolvimento de novos aspectos geométricos. Surgiram propostas de alterações no desenho da haste helicoidal, da seção reta transversal, da ponta, da conicidade e do diâmetro na extremidade (D0). Concomitantemente, o emprego de ligas em Níquel-Titânio possibilitou a produção de instrumentos acionados a motor, largamente empregados hoje. A cada ano a indústria lança instrumentos com diversas modificações, sem, contudo, disponibilizar informações suficientes quanto às implicações clínicas destas modificações. Existe um crescente interesse no estudo dos diferentes aspectos geométricos e sua precisa metrologia. Tradicionalmente, a aferição de aspectos geométricos de instrumentos endodônticos é realizada visualmente através de microscopia ótica. Entretanto, esse procedimento visual é lento e subjetivo. Este trabalho propõe um novo método para a metrologia de instrumentos endodônticos baseado no microscópio eletrônico de varredura e na análise digital das imagens. A profundidade de campo do MEV permite obter a imagem de todo o relevo do instrumento endodôntico a uma distância de trabalho constante. Além disso, as imagens obtidas pelo detector de elétrons retro-espalhados possuem menos artefatos e sombras, tornando a obtenção e análise das imagens mais fáceis. Adicionalmente a análise das imagens permite formas de mensuração mais eficientes, com maior velocidade e qualidade. Um porta-amostras específico foi adaptado para obtenção das imagens dos instrumentos endodônticos. Ele é composto de um conector elétrico múltiplo com terminais parafusados de 12 pólos com 4 mm de diâmetro, numa base de alumínio coberta por discos de ouro. Os nichos do conector (terminais fêmeas) têm diâmetro apropriado (2,5 mm) para o encaixe dos instrumentos endodônticos. Outrossim, o posicionamento ordenado dos referidos instrumentos no conector elétrico permite a aquisição automatizada das imagens no MEV. Os alvos de ouro produzem, nas imagens de elétrons retro-espalhados, melhor contraste de número atômico entre o fundo em ouro e os instrumentos. No porta-amostras desenvolvido, os discos que compõem o fundo em ouro são na verdade, alvos do aparelho metalizador, comumente encontrados em laboratórios de MEV. Para cada instrumento, imagens de quatro a seis campos adjacentes de 100X de aumento são automaticamente obtidas para cobrir todo o comprimento do instrumento com a magnificação e resolução requeridas (3,12 m/pixel). As imagens obtidas são processadas e analisadas pelos programas Axiovision e KS400. Primeiro elas são dispostas num campo único estendido de cada instrumento por um procedimento de alinhamento semi-automático baseado na inter-relação com o Axiovision. Então a imagem de cada instrumento passa por uma rotina automatizada de análise de imagens no KS400. A rotina segue uma sequência padrão: pré-processamento, segmentação, pós-processamento e mensuração dos aspectos geométricos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O estudo do fluxo de água e do transporte escalar em reservatórios hidrelétricos é importante para a determinação da qualidade da água durante as fases iniciais do enchimento e durante a vida útil do reservatório. Neste contexto, um código de elementos finitos paralelo 2D foi implementado para resolver as equações de Navier-Stokes para fluido incompressível acopladas a transporte escalar, utilizando o modelo de programação de troca de mensagens, a fim de realizar simulações em um ambiente de cluster de computadores. A discretização espacial é baseada no elemento MINI, que satisfaz as condições de Babuska-Brezzi (BB), que permite uma formulação mista estável. Todas as estruturas de dados distribuídos necessárias nas diferentes fases do código, como pré-processamento, solução e pós-processamento, foram implementadas usando a biblioteca PETSc. Os sistemas lineares resultantes foram resolvidos usando o método da projeção discreto com fatoração LU por blocos. Para aumentar o desempenho paralelo na solução dos sistemas lineares, foi empregado o método de condensação estática para resolver a velocidade intermediária nos vértices e no centróide do elemento MINI separadamente. Os resultados de desempenho do método de condensação estática com a abordagem da solução do sistema completo foram comparados. Os testes mostraram que o método de condensação estática apresenta melhor desempenho para grandes problemas, às custas de maior uso de memória. O desempenho de outras partes do código também são apresentados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A tecnologia de sensoriamento remoto é uma das mais importantes fontes de informação para subsídios na identificação e no monitoramento de mudanças na cobertura da Terra. Objeto dessa tecnologia, a classificação supervisionada, por meio do algoritmo da máxima verossimilhança, tem sido um dos métodos mais utilizados para a extração de informações, principalmente em imagens de média resolução espacial. Utilizando parâmetros estatísticos, esse algoritmo pressupõe a ponderação das distâncias entre as médias dos níveis digitais das classes. Este trabalho objetivou a aplicação desse algoritmo em imagem de satélite de alta resolução. Para isso, foi necessário minimizar a intensidade de informações disponibilizadas por esses sensores, alterando a resolução espacial para 4 m e a radiométrica para 8 bit e, ainda, fazer uma filtragem pós-processamento. O presente trabalho, parte integrante de um projeto de monitoramento orbital de grandes obras de engenharia em infraestrutura, avaliou um método para a extração de informações para o monitoramento dessas obras, inseridas em meio rural ou urbano. A finalidade desse procedimento é subsidiar a análise da dinâmica de desenvolvimento dessas obras em relação a situações precedentes, assim como a possíveis intervenções no seu entorno. O projeto de monitoramento dessas obras utiliza imagens de satélites de vários sensores de alta resolução espacial, captadas em diferentes datas. No entanto, a aplicação do método apresentado neste trabalho exemplifica a utilização de imagem do satélite Ikonos 2 em uma única data. Para a imagem Ikonos 2, foi obtido um índice Kappa geral de 0,84 e apenas a classe caracterizada como Pastagem apresentou concordância relativamente mais baixa (0,71) em comparação a outras classes, mas ainda assim considerada uma boa classificação. Diante disso, a padronização proposta com a finalidade de minimizar as informações em imagens de alta resolução juntamente com o algoritmo da máxima verossimilhança e a posterior filtragem mostraram-se eficientes como suporte para a avaliação da ocupação das terras tomadas pelas obras (área de influência direta) e do seu entorno.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The present work deals with the development of robust numerical tools for Isogeometric Analysis suitable for problems of solid mechanics in the nonlinear regime. To that end, a new solid-shell element, based on the Assumed Natural Strain method, is proposed for the analysis of thin shell-like structures. The formulation is extensively validated using a set of well-known benchmark problems available in the literature, in both linear and nonlinear (geometric and material) regimes. It is also proposed an alternative formulation which is focused on the alleviation of the volumetric locking pathology in linear elastic problems. In addition, an introductory study in the field of contact mechanics, in the context of Isogeometric Analysis, is also presented, with special focus on the implementation of a the Point-to-Segment algorithm. All the methodologies presented in the current work were implemented in a in-house code, together with several pre- and post-processing tools. In addition, user subroutines for the commercial software Abaqus were also implemented.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação mest., Oceanografia, Universidade do Algarve, 2008

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tese de mestrado integrado em Engenharia Biomédica e Biofísica , apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2014

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tese de doutoramento, Informática (Ciência da Computação), Universidade de Lisboa, Faculdade de Ciências, 2015

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho de Projeto para obtenção do grau de Mestre em Engenharia Informática e de Computadores