81 resultados para Imagens fotográficas digitais intrabucais oclusais
Resumo:
Para avaliar, in virtro, uma metodologia que visa a reprodutividade de radiografias periapicais, obtidas com posicionadores individualizados através de registros oclusais, de incisivos centrais superiores, submetidos à movimentação ortodôntica simulada - através da obtenção de medidas lineares do comprimento dos dentes, da comparação visual de imagens observadas lado a, nomonitor; e da subtração radiogrráfica digital qualitativa ded imagens - foram utilizados 29 dentes incisivos centrais extraídos de humanos. Os dentes foram radiografados em um simulador de tecidos ósseo e moles, em diferentes inclinações no sentido vestíbulo-palatino (0º incial, 0º contrle, -10º, -5º, +5º e 10º). As radiografias foram digitalizadas e submetidas, inicialmente, à análise quantitativa do comprimento dentário, através de régua eletrônica. Posteriormente, pares de imagens domesmo dente (inicial X inclinação) foram exibidos a um observador, que as avaliou quanto apresença ou ausência de imagem compatível com reabsorção apical, atribuindo-lhes escores de 1 a 5. As imagens resultantes da subtração dos mesmos pares de radiografias foram avaliadas pelos mesmos critérios. As medidas lineares de copmprimento dentário foram reprodutíveis (r=0,99) tanto na repetição das avaliações quanto na comparação entre as imagens 0º incial e 0º controle, não diferindo significativamente (ANOVA, p+ 0,827) nas radiografias com diferentes angulações. A avaliação por subtração digital de imagens apresentou boa correlação (r=0,798) quando repetida em 20% da amostrra, não diferindo, signitivamente (Teste não paramétrico dee Friedmann, p = 0,379), em relação aos escores atribuídos às imagens provenientes de diferentes angulações. A avaliação de pares de imagens apresentou em média correlação (r=0,413) quando repetida em 20% da amostra, porém também não apresentou diferenças estatisticamente significativas (Teste não paramétrico de Friedman, p=0,700) nos escores atribuídos às imagens de acordo com a inclinação os dentes. Tais resultados permitem concluir que a metodologia proposta para a obtenção, in vitro, de radiografias periapicais de incisivos superiores, através do uso de um posicionador individualizado por registro oclusal, resultou em imagens reprodutíveis de comprimento dentário, mesmo quando a movimentação ortodôntica foi simulada através da inclinação do dente em até 20% nos sentido vestibulo-palatino, quando avaliadas através das medidas de comprimento dentário e da subtração digital.
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
Resumo:
O processo de ensino e de aprendizagem funda-se numa relação escópica e especular estabelecida entre professor-aluno, da qual resultam a construção/consti-tuição de imagens. Estas, por sua vez, entendidas como processo e não como pro-duto, necessitam de três tempos para sua constituição, os quais são analisados a partir dos paradigmas da psicanálise freudo-lacaniana, da epistemologia genética e da filosofia benjaminiana. As imagens, na condição de suportes imaginários, representam, para o pro-fessor e para o aluno, um entre-lugar interdisciplinar enlaçando e fabricando se-melhanças e diferenças entre a Clínica e a Educação; entre o espaço privado da família e o espaço público da escola/social; entre o olhar e o ver; entre a imagem e sua representação. Trata-se, portanto, da construção de uma experiência e do exer-cício do ensinar e do aprender. Experiências essas, compartilhadas entre professor e aluno no espaço escolar Das análises e reflexões desenvolvidas nesta pesquisa, que tiveram por base tanto fragmentos de casos clínicos com crianças em atendimento psicomotor quanto entrevistas com professores, foi construído um instrumento denominado caso peda-gógico, cujo objetivo é auxiliar o professor a refletir sobre os efeitos imaginários pro-duzidos nas referidas relações escópicas e especulares, as quais interferem, susten-tam e, muitas vezes, obstaculizam o processo de ensino-aprendizagem, produzindo fracassos tanto no processo do ensinar, quanto no do aprender. Nesse sentido, é preciso compreender que o processo ensino-aprendizagem não implica apenas uma relação prazerosa, mas também e, especialmente, sofri-mentos: tanto do professor quanto do aluno, aos quais é preciso olhar e não apenas ver.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.
Resumo:
O uso de Tecnologia da Informação (TI) tem evoluído muito nos últimos anos e isto influencia, sem dúvida, o ensino e a prática da arquitetura. Observa-se que o ensino de projeto nas escolas de arquitetura se dá através de um processo prático-reflexivo, no qual os alunos aprendem fazendo, sob a orientação dos professores. O conhecimento arquitetônico, portanto, vai sendo construído através da análise e interpretação do projeto e a busca de significados a partir da sua representação, sejam esboços à mão livre ou imagens digitais. Desta forma, as disciplinas de prática projetual têm grande importância, sendo consideradas fundamentais para a formação do arquiteto. Reconhecendo que a aplicação da TI gera novos paradigmas projetuais, mostrou-se importante a investigação da docência e da prática profissional. Este trabalho tem por objetivo caracterizar a presença e o uso de TI no ensino de projeto arquitetônico nas Faculdades de Arquitetura e Urbanismo (FAU) de Porto Alegre, RS. Demonstra-se, através dos resultados de estudo exploratório em quatro FAUs, as características pessoais e a forma como estão sendo desenvolvidas as habilidades dos alunos para a prática de projeto arquitetônico em função das tecnologias disponíveis e das tendências futuras que se apresentam a estes profissionais. Verificou-se como os estudantes usam recursos computacionais em geral, qual o seu o nível de conhecimento sobre TI e como tem sido feita a abordagem pelas FAUs deste tema. Explorou-se, de forma especial, a aplicação de sistemas CAD no processo de projeto arquitetônico Constatou-se que os sistemas ainda são bastante sub utilizados e que as disciplinas dos currículos das FAUs estudadas levam a uma formação aquém da necessidade exigida pelos escritórios de arquitetura, onde o uso de recursos computacionais é corrente. Para estarem adequados as exigências do mercado de trabalho, os estudantes além de completarem o seu Curso, necessitam superar a necessidade de aprendizagem de sistemas computacionais, muitas vezes adquirida durante o estágio ou em cursos extra-curriculares.
Resumo:
O presente trabalho descreve uma proposta para a representação geométrica de imagens. Através da subdivisão espacial adaptativa de uma imagem em triângulos, uma representação simplificada da estrutura da imagem pode ser obtida. Demonstramos que a representação gerada é adequada para aplicações como a segmentação e a compressão de imagens. O método de segmentação de imagens desenvolvido faz uso deste tipo de representação para obter resultados robustos e compactos, comparados a outros métodos existentes na literatura, e adequado para aplicações como a detecção, descrição e codificação de objetos. Utilizando uma representação geométrica semelhante a métodos de modelagem de superfícies, criamos um novo método de compressão de imagens que apresenta vantagens em relação a outros métodos existentes, em especial na compressão de imagens sem perdas.
Resumo:
Neste trabalho foram realizadas classificações utilizando-se as bandas 1 a 5 e 7 dos sensores Landsat 5 TM (1987) e Landsat 7 ETM+ (2000). A caracterização espectral dos materiais foi realizada em laboratório utilizando um espectrorradiômetro, e através das bandas 1 a 5 e 7 dos sensores Landsat 5 TM (1987) e Landsat 7 ETM+ (2000). A transformação dos dados multiespectrais de imagens de sensoriamento remoto é uma maneira de reduzir o volume de dados através da identificação de classes de interesse numa imagem digital. No intuito de verificar condições de melhoramento na classificação de alvos urbanos em imagens digitais, identificados por procedimentos já conhecidos, como a classificação pela Máxima Verossimilhança, escolheu-se um classificador baseado na lógica fuzzy. O classificador utilizado foi o Fuzzy Set Membership classification - Fuzclass, que faz parte de um conjunto de classificadores não-rígidos disponíveis no programa Idrisi 32. Uma vez que informações sobre o desempenho de produtos deste classificador em áreas urbanas são escassas, foram conduzidos ensaios de comparação de resultados obtidos por este classificador com a verdade terrestre, representada por uma imagem de alta resolução espacial do satélite QuickBird. As áreas teste selecionadas desta imagem atendem ao critério de inalterância das condições de ocupação para o intervalo temporal considerado A comparação feita, permite concluir que o classificador apresenta limitações na classificação de áreas urbanas devido ao comportamento espectral semelhante dos materiais que fazem parte dessa cobertura. A utilização de uma classe única para identificar áreas impermeáveis foi a solução adotada para contornar este óbice. O emprego de áreas teste possibilitou acertar a escolha do grau de possibilidade de presença da classe no pixel (PPCP). Uma comparação entre os resultados apresentados na classificação de áreas impermeáveis, com base nos classificadores Máxima Verossimilhança e Fuzclass, demonstrou um desempenho melhor do classificador fuzzy, em função do nível de PPCP ajustado durante a análise comparativa Landsat e Quickbird nas áreas teste. Um procedimento alternativo de estimativa de áreas impermeáveis em bacias urbanas é apresentado no final.
Resumo:
Há diferenças significativas nos níveis de fluência digital entre os alunos da Rede Pública de Ensino de Porto Alegre em função de suas diferentes condições de acesso e utilização de computadores, conectividade e sociabilidade. Utilizamos uma amostra de 430 casos obtidos em 19 escolas da Rede Pública de Ensino com o objetivo de mapear as relações tecidas na rede de interações entre agentes humanos e não-humanos que compõem o entorno das Escolas Estaduais de Ensino Médio. Para reconstituirmos as múltiplas relações que se estabelecem no processo de produção do conhecimento, utilizamos a idéia de rede sociotécnica, principalmente, no que se refere a interesses políticos, econômicos e sociais dos grupos envolvidos, evitando, sobretudo, à luz de tal abordagem, a dimensão meramente instrumental da ciência. Trabalhamos com métodos estatísticos para o estabelecimento de indicadores de acessibilidade, usabilidade, interconectividade, sociabilidade e fluência no uso do suporte informático. O conceito weberiano de tipo ideal serviu de subsídio à construção de parâmetros de análise. Com o uso deste aporte metodológico-conceitual estabelecemos distâncias existentes entre os diferentes pontos dessa rede de interações. Os indicadores permitiram identificar sete níveis distintos de fluência digital entre os alunos, sendo dois relacionados à acessibilidade (Não Fluentes I e II), dois à usabilidade do suporte e da Internet (Não Fluentes III e IV) e três relativos ao nível de domínio que estes possuem com relação à utilização do suporte informático (Fluente no Suporte Informático; Fluente Potencial; Fluente no Uso do Suporte Informático e das Tecnologias da Informação e Comunicação).
Resumo:
A Astronomia, como origem e, talvez, como fim de todas as Ciências, sempre esteve voltada à observação dos astros e à busca de novas técnicas e instrumentos que permitissem ampliar os limites e a qualidade destas observações. Dessa busca resultou o desenvolvimento do telescópio óptico, em 1608, por Galileu Galilei. Com o passar dos anos, esse instrumento foi sofrendo incontáveis aperfeiçoamentos, chegando aos nossos dias como um aparelho preciso e de sofisticada tecnologia. Apesar das fronteiras observacionais terem avançado para além do espectro visível, o telescópio óptico ainda é indispensável à Astronomia. O Brasil, embora não apresente condições meteorológicas ideais para observações astronômicas, possui observatórios ópticos de razoável qualidade, como o Laboratório Nacional de Astrofísica, LNA, em Minas Gerais, entre outros. Em seu extremo sul, no entanto, o País carece de bons instrumentos ópticos, destacando-se unicamente o telescópio da UFRGS instalado no Observatório do Morro Santana, em Porto Alegre. O aumento da iluminação artificial na Região Metropolitana de Porto Alegre e, conseqüentemente, da claridade do céu noturno tem praticamente inviabilizado a operação do Observatório. Assim, a escolha de novos locais para a futura instalação de telescópios ópticos no Estado é imprescindível. Acrescenta-se a isto o fato do ciclo climático desta região diferenciarse daquele das demais regiões do País, fato relevante, dado que um dos fatores determinantes na escolha de novos sítios para telescópios ópticos é a taxa de nebulosidade. Levantamentos in situ de nebulosidade são longos e custosos. Como alternativa, neste trabalho foi realizado um estudo estatístico do Estado, a partir da montagem de um banco de 472 imagens noturnas dos satélites GOES e MeteoSat. A combinação das imagens, por processo de superposição e cálculo de valores médios de contagens (brilho), à escala de pixel, forneceu informações em nível de préseleção, ou indicativo, de locais com altas taxas de noites claras. Foram cobertos os períodos de 1994-1995 e 1998-1999, com focalização nas áreas em torno de Bom Jesus, Vacaria e Caçapava do Sul. Como controle, foi também monitorada a área em torno do LNA em Minas Gerais. Ademais da demonstração metodológica, os dados orbitais indicaram que, na média destes anos, estas áreas são adequadas à instalação de observatórios astronômicos, pela conjugação dos fatores de nebulosidade e altitude.
Resumo:
Neste trabalho será feita uma análise da quantidade de pontos de controle para correção geométrica de imagens, mais especificamente, do satélite CBERS-I, utilizando o sensor CCD, através de análises estatísticas para o cálculo da quantidade de pontos e estudo quantitativo através da análise de variância da média dos resíduos obtidos de amostras de tamanhos variados. Os pontos de controle foram coletados com receptor GPS e foi utilizado um modelo polinomial de segunda ordem para a correção geométrica da imagem. Os resultados experimentais obtidos na análise da média para o cálculo da quantidade de pontos mostram que o erro residual tende a se estabilizar para a quantidade de pontos definidos pela estatística. Apresenta-se ao final, considerações iniciais sobre a aplicação desta proposta para diversos outros sensores, permitindo um maior aproveitamento destes na atualização cartográfica e na geração de cartas imagens.
Resumo:
É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.
Resumo:
Esta dissertação, História do Povo Surdo em Porto Alegre, Imagens e Sinais de uma Trajetória Cultural traz a narrativa, através de fotografias, da evolução das políticas surdas em Porto Alegre. O Referencial teórico utilizado para embasar as narrativas em seus contextos históricos e culturais foi o dos Estudos Surdos, Estudos Culturais e Análise de Fotografias. A documentação destes eventos importantes para o povo surdo local possibilitou o registro do desenvolvimento e das articulações feitas pelas pessoas surdas em busca de seu reconhecimento como grupo cultural e não como sujeitos deficitários, desde a década de 1950 até os dias atuais. As histórias registradas nas fotografias, narradas por seus protagonistas, mostram a construção do Povo Surdo, passo a passo, historicamente.
Resumo:
Este trabalho se ocupa do problema da localização de sítios adequados para a operação de observatórios astronômicos. O constante crescimento das cidades e a urbanização de grandes áreas vizinhas é acompanhada por um aumento proporcional da iluminação artificial, o que resulta em níveis maiores de brilho do céu noturno. Isto tem consequências extremas para a astronomia óptica, a qual exige um céu escuro, e justifica buscas de novos sítios para a instalação de futuros telescópios ópticos. Um dos critérios mais importantes para sítios astronômicos, além de céu escuro, é uma alta proporção de céu claro, sem nuvens. Buscas de sítios astronômicos são estudos conduzidos ao longo de períodos de tempo de anos. É sugerido que imagens de satélites meteorológicos podem ser úteis para a seleção preliminar destes sítios. A metodologia utilizada é fundamentada em correções geométricas de imagens de dados orbitais das naves NOAA12 e NOAA14 e na soma de imagens obtidas em datas diferentes. As imagens foram coletadas pela estação de recepção instalada no Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia da UFRGS. Somando, pixel por pixel, imagens colhidas em datas diferentes, após correções geométricas, obtém-se médias temporais de cobertura de nuvens, o que é o equivalente moderno da construção de médias a partir de uma série temporal de dados meteorológicos de estações terrestres. Nós demonstramos que esta metodologia é factível para este tipo de dado, originário de órbitas de menor altitude e melhor resolução, se comparado com imagens vindas de satélites de órbitas altas, geoestacionários, com menor resolução, imagens estas de manipulação muito mais fácil, pois o ponto de observação tende a ser estável no tempo.
Resumo:
Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.