101 resultados para Computação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de Tecnologia da Informação (TI) tem evoluído muito nos últimos anos e isto influencia, sem dúvida, o ensino e a prática da arquitetura. Observa-se que o ensino de projeto nas escolas de arquitetura se dá através de um processo prático-reflexivo, no qual os alunos aprendem fazendo, sob a orientação dos professores. O conhecimento arquitetônico, portanto, vai sendo construído através da análise e interpretação do projeto e a busca de significados a partir da sua representação, sejam esboços à mão livre ou imagens digitais. Desta forma, as disciplinas de prática projetual têm grande importância, sendo consideradas fundamentais para a formação do arquiteto. Reconhecendo que a aplicação da TI gera novos paradigmas projetuais, mostrou-se importante a investigação da docência e da prática profissional. Este trabalho tem por objetivo caracterizar a presença e o uso de TI no ensino de projeto arquitetônico nas Faculdades de Arquitetura e Urbanismo (FAU) de Porto Alegre, RS. Demonstra-se, através dos resultados de estudo exploratório em quatro FAUs, as características pessoais e a forma como estão sendo desenvolvidas as habilidades dos alunos para a prática de projeto arquitetônico em função das tecnologias disponíveis e das tendências futuras que se apresentam a estes profissionais. Verificou-se como os estudantes usam recursos computacionais em geral, qual o seu o nível de conhecimento sobre TI e como tem sido feita a abordagem pelas FAUs deste tema. Explorou-se, de forma especial, a aplicação de sistemas CAD no processo de projeto arquitetônico Constatou-se que os sistemas ainda são bastante sub utilizados e que as disciplinas dos currículos das FAUs estudadas levam a uma formação aquém da necessidade exigida pelos escritórios de arquitetura, onde o uso de recursos computacionais é corrente. Para estarem adequados as exigências do mercado de trabalho, os estudantes além de completarem o seu Curso, necessitam superar a necessidade de aprendizagem de sistemas computacionais, muitas vezes adquirida durante o estágio ou em cursos extra-curriculares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma investigação sobre algumas operações categoriais baseadas em grafos e a aplicação das mesmas a uma área específica da Ciência da Computação, a saber, animações computacionais baseadas em autômatos finitos com saída. As operações categoriais estudadas neste trabalho são: Produto, Coproduto, Soma Amalgamada e Produto Fibrado. O modelo AGA (Animação Gráfica baseada em Autômatos finitos) foi o escolhido para ser utilizado como base desta dissertação. Inspirado nestes estudos, o trabalho contém uma proposta de como aplicar tais operações com o objetivo de definir animações aparentemente complexas, de forma simples, precisa e de fácil implementação. O enfoque está baseado em J. Stoy que diz que um dos objetivos para o uso da semântica formal de teoria das categorias é “sugerir meios ou formas para o projetista desenvolver sistemas melhores, mais elegantes (“limpos”) e com descrições formais mais simples”. Entretanto, não é objetivo deste trabalho verificar se a utilização destas operações é ou não melhor do que a utilização de qualquer outra solução para criar novas animações. Esta dissertação traz uma nova versão do modelo AGA, denominada AGANd (Animação Gráfica baseada em Autômatos finitos Não determinísticos), sendo que o AGA utiliza apenas autômatos finitos determinísticos para criar os atores de uma animação. Com a utilização do AGANd obtém-se animações mais realistas e mais flexíveis. A aplicação destas operações se dá nos dois modelos, os resultados obtidos a partir de cada uma das operações sobre os mesmos são apresentados de forma detalhada e ilustrados com os autômatos resultantes no decorrer do trabalho. É apresentada uma sugestão de implementação para cada uma das operações, visando estender o protótipo já implementado do modelo AGA. Isso faz com que o leitor seja estimulado a aplicar estas e outras operações categoriais em novas animações baseadas ou não nos modelos apresentados, despertando até mesmo para seu uso em outras áreas da Ciência da Computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo apresentar e estudar a aplicação de uma ferramenta chamada PCP – Pseudo-Compilador Portugol, criada para auxiliar estudantes de programação a aprimorar o raciocínio lógico e a criar programas estruturados, sem que precisem se preocupar com comandos e instruções em Inglês ou tenham conhecimento de uma linguagem de programação específica. Por ser uma ferramenta que usa somente palavras do nosso idioma, os alunos podem direcionar todo o seu raciocínio no entendimento e resolução do problema em forma de algoritmo. O estudo experimental realizado neste trabalho pretende analisar e comparar o aprendizado entre grupos de alunos de disciplinas de programação utilizando e não utilizando esta ferramenta. Além de acompanhar o desempenho dos alunos, pretende também coletar informações durante as baterias de testes e obter as opiniões dos mesmos em relação ao PCP, no que se refere às facilidades, dificuldades, pontos positivos e falhas apresentadas. Este estudo é apresentado em duas etapas, com oito baterias de teste em cada uma. Na primeira etapa foram selecionados alunos do Curso de Ciência da Computação da UNIGRAN, em Dourados-MS; na segunda etapa foram selecionados alunos da Escola Anglo Decisivo. Estas duas etapas possibilitam a análise do aprendizado proporcionado pela ferramenta com alunos que já têm alguma noção de programação e com alunos que não tiveram nenhum contato com o desenvolvimento de programas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho contempla a interpretação e quantificação das relações entre a alocação da demanda e da oferta de equipamentos de ensino em um sistema local, instrumentado a partir de modelo de oportunidade espacial. Avalia o desempenho de equipamentos escolares baseado na descrição detalhada da configuração espacial e abordagem probabilística para a escolha do usuário em potencial. Constitui objetivo principal medir o desempenho de equipamentos escolares, considerando a configuração espacial urbana, a demanda qualificada representada pelos diversos usuários em potencial e a distribuição dos equipamentos na cidade, verificando a possibilidade teórica de avaliar a qualidade do serviço em função de sua localização, utilizando como variáveis a acessibilidade, a eficiência e equidade espacial. Neste sentido, o método adotado compreende a introdução de variáveis físicas, sociais e econômicas associadas a modelos configuracionais para análise entre as diferentes medidas, adaptado a partir do conceito de oportunidade espacial. Utiliza a medida de Convergência Espacial, definida como uma particularidade do conceito de Centralidade Espacial Os resultados esperados, tendo em vista os propósitos da pesquisa, deverão conduzir a verificação das seguintes hipóteses: a) Do ponto de vista do sistema educacional e habitacional existente, a avaliação do desempenho do sistema escolar pode ser obtida considerando uma combinação de variáveis locais (tipo de demanda e tipo/tamanho de oferta de escolas) e variáveis globais (posição relativa no espaço); b) Do ponto de vista das políticas públicas, a avaliação de impactos de novos equipamentos/serviços de educação pode ser simulada através da medida de Convergência Urbana, desta vez considerando localizações prováveis; A utilização dos modelos propostos neste estudo resultaria da manipulação de variáveis de oferta de serviços de ensino através da computação e associação de dados para cada caso em particular obter-se-ia atributo ao qual estariam relacionadas a eficiência do equipamento, além dos fatores de tamanho, tipo e localização e de variáveis de demanda. Apresentado como instrumento de suporte à decisão a convergência espacial dá avaliação sistemática de situações urbanas, bem como uma performance esperada de situações virtuais do ponto de vista da distribuição de facilidades urbanas em relação a áreas residenciais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Após o refinamento, os critérios foram utilizados experimentalmente em três tipos de métodos de avaliação tradicionais, a saber, avaliação heurística, inspeção de conformidade e ensaios de interação. Os resultados obtidos com estas avaliações demonstraram que os critérios de avaliação, definidos neste trabalho, capturaram muito mais problemas relacionados à técnica do que os critérios tradicionalmente usados para avaliar interfaces gráficas. Um resultado promissor, não previsto, foi a constatação que o conjunto de critérios propostos detectaram, também, um número expressivo de problemas de usabilidade na interface, quando da aplicação das sessões de avaliação heurística. Este resultado evidencia a possibilidade de extensão deste conjunto de critérios a fim de avaliar, também, as principais características da interface das técnicas de visualização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho descreve uma proposta para a representação geométrica de imagens. Através da subdivisão espacial adaptativa de uma imagem em triângulos, uma representação simplificada da estrutura da imagem pode ser obtida. Demonstramos que a representação gerada é adequada para aplicações como a segmentação e a compressão de imagens. O método de segmentação de imagens desenvolvido faz uso deste tipo de representação para obter resultados robustos e compactos, comparados a outros métodos existentes na literatura, e adequado para aplicações como a detecção, descrição e codificação de objetos. Utilizando uma representação geométrica semelhante a métodos de modelagem de superfícies, criamos um novo método de compressão de imagens que apresenta vantagens em relação a outros métodos existentes, em especial na compressão de imagens sem perdas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Por várias décadas os computadores têm sido utilizados no processo educacional e nem sempre da forma correta. E existe uma forma correta? Não existe consenso, são muitas as tentativas e experiências com inúmeros resultados positivos e negativos. Sabe-se de antemão que um dos fatores que levam ao fracasso alguns ensaios é a mera transposição do material didático tradicional para o meio informatizado, sem alterações na metodologia nem na postura do professor e do aluno. A questão é como a tecnologia pode ser utilizada para favorecer uma Aprendizagem Significativa. Para possibilitar esta pesquisa foi desenvolvido o Laboratório Virtual ASTERIX, utilizado na disciplina de Redes de Computadores do Curso de Ciências da Computação/UFSM. Esse trabalho apresenta os resultados da utilização do laboratório virtual ASTERIX, a metodologia de utilização dos recursos tecnológicos envolvidos (realidade virtual, inteligência artificial e animações/simulações) e avaliação da utilização desse laboratório virtual. A teoria educacional que fundamentou a criação e a utilização do laboratório virtual foi a Aprendizagem Significativa de D. Ausubel e D. Jonassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.