105 resultados para métodos qualitativos e quantitativos
Resumo:
Neste trabalho foram investigados diferentes métodos de preparação de amostra para a determinação de níquel e vanádio em óleo cru usando a espectrometria de absorção atômica com forno de grafite (GF AAS). Investigou-se o uso de xileno como diluente, o qual foi inadequado devido à baixa estabilidade de níquel nas soluções e resultando na contaminação do equipamento. As soluções diluídas em isobutilmetilcetona apresentaram melhor estabilidade, mas não houve reprodutibilidade das medidas com os padrões orgânicos de níquel. Melhores resultados foram obtidos com emulsões óleo-em-água, usando Triton X-100 como surfactante. Também foi estudado o uso de padrões aquosos (inorgânicos) para o preparo das emulsões. Após o estabelecimento de curvas de pirólise para padrão e amostra de óleo cru, observou-se diferença no comportamento térmico do níquel na matriz de óleo cru. Foi então realizada uma investigação usando um espectrômetro de absorção atômica com fonte contínua de alta resolução (HR-CS AAS), equipamento com elevada capacidade de correção de fundo, e constatou-se que cerca de 50 % do analito é perdido em temperaturas abaixo de 400 ºC, enquanto que o restante é termicamente estável até pelo menos 1200 ºC. A fim de resolver o problema de perda de níquel volátil, foi investigado o uso de paládio como modificador químico. Através de curvas de pirólise com e sem paládio, observou-se que a mesma perda também ocorreu para o vanádio. Após a otimização da melhor quantidade de paládio, verificou-se que foi necessária uma quantidade de 20 µg de paládio para estabilização de níquel e vanádio. A determinação de níquel e vanádio total em amostras de óleo cru foi realizada usando-se paládio como modificador químico. A especiação destes elementos foi possível através da determinação das espécies estáveis, provavelmente compostos salinos não porfirínicos de níquel e vanádio, sem a adição de paládio, e a fração de compostos voláteis (provavelmente porfirinas de níquel e vanádio) foi calculada por diferença. Estabeleceram-se as figuras de mérito obtendo-se valores de massa característica de 19 e 33 pg e limite de detecção de 43 e 113 pg para níquel e vanádio, respectivamente. Esses resultados são compatíveis com dados reportados na literatura. A exatidão deste procedimento foi verificada pela análise dos materiais de referência certificados de metais traço em óleo residual (SRM 1634c) para níquel e vanádio e o petróleo (RM 8505) somente para vanádio e também por comparação com os resultados obtidos por HR-CS AAS para várias amostras de óleo cru. A aplicação do teste estatístico t-student aos resultados de níquel e vanádio total obtidos por GF AAS e HR-CS AAS mostrou que os mesmos não são significativamente diferentes a um nível de 95% de confiança.
Resumo:
O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.
Resumo:
Resumo não disponível.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Estudo de natureza descritiva, analítica e interpretativa de elementos quantitativos e qualitativos, com finalidade de compreender o processo histórico-político da Educação e do Ensino Médio e de apresentar um quadro conjuntural de demanda e oferta da etapa final da Educação Básica no âmbito da 7ª Coordenadoria Regional de Educação do rio Grande do Sul, Brasil, com sede em Passo Fundo, a no período 1987-1999. A região geo-educacional abrange 32 municípios, sobre os quais foram compilados dados estatísticos relativos a escolaridade da população, matrículas, aprovação X reprovação e evasão escolar, por série do Ensino Médio, inclusive com análises comparativas e de cohortes. Adicionalmente, no Volume II, são apresentadas tabulações por unidade escolar, segundo o município. Como contextualização, resenha-se a história da educação escolar brasileira, concentrando a atenção no Ensino Médio, da época da colonização até a atualidade. A seguir, uma leitura do atual ordenamento constitucional e legal nacional, destacando os artigos 35 e 36 da Lei de Diretrizes e Bases da Educação Nacional, a Lei nº 9394/96, embasa a problematização central da dissertação, que é o direito à Educação Básica, que gera progressiva, mas ainda não plenamente atendida demanda de Ensino Médio. Além do exame dos dados estatísticos, trata-se da reforma do Ensino Médio proposta no país em 1998, cujas diretrizes redefinem objetivos e organização curricular (Resolução CEB/CNE 03/98). Sobre esta, sem pretender dar conta da amplitude e da profundidade da matéria, a autora posiciona-se com o olhar de quem está do lado de dentro da escola média, vivenciando o cotidiano nas unidades escolares, em parte compreendendo a necessidade de mudanças, porém conhecendo as limitações institucionais Na aproximação do objeto geo-educacional, faz-se a contextualização histórica da educação escolar no estado do Rio Grande do Sul, para chamar atenção aos condicionantes culturais e políticos que levam à atual configuração de direitos restritos à Educação, na ambigüidade de deveres do Estado federativo. Assim, situa-se que a expansão das oportunidades de escolarização, com a criação de novas escolas e do Ensino Médio, é processo político e burocrático complexo, em que não basta a óbvia evidência de população sem acesso progressivo aos níveis mais elevados de ensinos para que sejam tomadas as providências adequadas em termos de localização e infra-estrutura da escola ou de recursos humanos e pedagógicos de acordo com as normas vigentes. As solicitações da comunidade e os encaminhamentos aos órgãos competentes, na estrutura centralizada, encontram sucessivas negativas e atendimentos com autorizações sob condições precárias, como ilustram dados do período e região estudada. A análise principal, sobre os dados estatísticos dos municípios da região da 7ª CRE, subdivide as escolas de Ensino Médio segundo as responsabilidades de manutenção e administração: as escolas públicas, que são todas estaduais, à exceção de uma Escola Agrotécnica Federal (dados de 1987 a 2000); e as escolas privadas, de diversas mantenedoras. Para estimar a demanda à 1ª série do Ensino Médio são também considerados os concluintes do Ensino Fundamental; as matrículas do Ensino Médio são tabuladas por série e segundo alunos evadidos, aprovados, repetentes, novos e. Há uma síntese por município, referente a cada um dos indicadores mencionados O Capítulo V, oferece uma aproximação ainda mais detalhada à realidade, com dados de cada escola estadual e privada do município de Passo Fundo, o pólo da região. Nas considerações finais, relatam-se os principais resultados encontrados. Em síntese, no período e na região estudada, os dados indicam que a matrícula do Ensino Médio expandiu-se, a evasão diminuiu e o aproveitamento escolar parece melhorar; mas, paradoxalmente, o número de alunos concluintes do ensino Médio diminuiu. Por isso, cabe destacar à sociedade e às autoridades educacionais que, embora a evasão tenha cedido e o aproveitamento alcançado índices mais positivos, ainda há muita atenção a ser dispensada às escolas, no sentido de mudar o quadro de evasão e aproveitamento, bem como de incluir uma grande parcela da população, em todos os municípios da região que, ainda não tem acesso ao Ensino Médio de Passo Fundo-RS.
Resumo:
A presente dissertação realiza um estudo comparativo de casos, representados por dois jornais online: Terra Notícias e Diário Catarinense, tendo como ponto de partida o estabelecimento das seguintes categorias: conteúdo disponível, ergonomia do sistema hipermídia e recursos de interatividade, levantados a partir de uma revisão bibliográfica sobre o tema. Para chegar a esse objetivo, são utilizadas técnicas variadas de pesquisa, como pesquisa bibliográfica, aplicação de questionário para obtenção de dados quantitativos e qualitativos e observação estruturada a partir de categorias pré-estabelecidas. A pesquisa ainda aplica uma ferramenta para mensuração da qualidade percebida, com a finalidade de verificar a avaliação dos internautas catarinenses em relação aos dois jornais online em questão. A ferramenta de pesquisa foi construída a partir de modelo proposto por Sousa (2001), e ampliada com base nas mesmas categorias utilizadas para a análise comparativa.
Caracterização química de extratos de Hibiscus tiliaceus : estudo comparativo de métodos de extração
Resumo:
O presente trabalho teve como objetivo estudar a composição química das flores de Hibiscus tiliaceus L usando diferentes técnicas de extração. Os métodos de extração usados foram maceração, Soxhlet, ultra-som, extração com fluido supercrítico e extração com líquido pressurizado. Foram investigadas as variáveis que podem influenciar no processo de extração tais como temperatura, pressão, polaridade do solvente, tempo de extração e massa de amostra, entre outras. A identificação dos compostos foi realizada por cromatografia gasosa acoplada com detector de espectrometria de massas. Os métodos de extração utilizados mostraram-se eficientes para a obtenção dos extratos, com algumas diferenças qualitativas. Quantitativamente, os compostos majoritários, em todas as técnicas de extração usadas, foram ácidos carboxílicos (C16 e C18), hidrocarbonetos com número ímpar de carbonos (C27, C29 e C31) e fitosteróis. Entre os métodos de extração que utilizam solventes orgânicos, a extração com líquido pressurizado apresentou maior rendimento em massa de extrato e maior concentração de alguns dos compostos presentes nas flores de Hibiscus tiliaceus L., com as vantagens de redução de solventes e do tempo de extração. A variável que se mostrou mais importante nos procedimentos de extração foi a polaridade do solvente. A composição química das flores Hibiscus tiliaceus L apresentou além dos compostos citados, álcoois, aldeídos e vitamina E. A determinação do potencial antioxidante da planta, utilizando o método por quimiluminescência, permitiu encontrar valores para TAR e TRAP superiores ao trolox, utilizado como padrão, indicando a presença de antioxidantes nos extratos.
Resumo:
Métodos de preparo e sistemas de culturas podem afetar os atributos químicos do solo e, conseqüentemente, sua fertilidade. Com o objetivo de avaliar os efeitos destas práticas, foram analisadas amostras de solo coletadas de seis camadas (0-2,5, 2,5-5, 5-7,5, 7,5-12,5, 12,5-17,5 e 17,5-30 cm), no 13º ano de experimento de longa duração, instalado em 1985, em um Argissolo Vermelho distrófico, localizado na Estação Experimental Agronômica da UFRGS, em Eldorado do Sul, RS. O experimento constitui-se de três métodos de preparo (convencional-PC, reduzido-PR e plantio direto-PD), três sistemas de culturas (aveia/milho-A/M, vica/milho-V/M e aveia+vica/ milho+caupi-A+V/M+C) e duas doses de N mineral no milho (0 kg N ha-1 ano-1 e 180 kg N ha-1 ano-1 na forma de uréia). Houve aumento no estoque de carbono orgânico (CO) do solo no PD e PR quando associados com sistemas de culturas com maior aporte de resíduos vegetais ao solo. Os métodos de preparo sem revolvimento do solo apresentaram maior valor de CTC efetiva e a pH 7,0, em concordância com o teor de CO. Maiores teores de Ca, Mg e P foram determinados na camada superficial do solo (0-5 cm) em PD e PR, enquanto o solo em PC apresentou distribuição homogênea destes atributos na camada arável (0-17,5 cm). Sistemas de culturas que incluíram leguminosas, principalmente o sistema V/M, apresentaram menor valor de pH e maiores valores de Al trocável e saturação por alumínio. Em média, tratamentos com aplicação de N mineral apresentaram menores valores de pH e de saturação por bases e aumento da saturação por alumínio.
Resumo:
Introdução - A forma tradicional para se estudar a variação espacial de taxas é feita considerando a contagem do número de pessoas em cada área de um mapa em relação à população exposta, denominada taxa bruta. Entretanto, essa representação nem sempre é a melhor, principalmente na presença de população pequena. Objetivos - Utilizar métodos de Epidemiologia Espacial para representar a taxa de fecundidade específica em mulheres de 10 a 19 anos, utilizando como exemplo a cidade de Porto Alegre no ano de 2003 e investigar sua distribuição geográfica por meio de técnicas de Mapeamento de Eventos de Saúde. Métodos - Utilizando-se a base de dados do SINASC e o Censo do IBGE para o ano de 2000, considerando-se as divisões de bairro da cidade de Porto Alegre, construiu-se a taxa de fecundidade específica na adolescência. Métodos de suavização para controlar as flutuações aleatórias do risco foram usados, como o Estimador Bayesiano Empírico Local de Marshall e o Estimador Totalmente Bayesiano. Resultados - No ano de 2003 ocorreram 28 nascidos vivos por mil mulheres de 10 a 19 anos na cidade. Em alguns bairros, a representação bruta revelou valores quase três vezes maiores. Com os métodos de suavização, apresenta-se uma distribuição espacial subjacente mais real e taxas com menor heterogeneidade espacial. Alguns bairros com maiores taxas de maternidade na adolescência encontram-se em regiões com piores condições sócio-econômicas. Conclusões - O método Totalmente Bayesiano mostrou ser o melhor para estimar a variabilidade da taxa de fecundidade específica em mulheres de 10 a 19 anos nos bairros de Porto Alegre, principalmente nos locais onde a população exposta era muito pequena.
Resumo:
Os métodos radiométricos (Rb-Sr e Sm-Nd) têm sido aplicados, com sucesso, em rochas sedimentares visando a obtenção de idades deposicionais e informações sobre proveniência. Em muitos casos, apesar dos resultados geologicamente significativos, ainda persistem dúvidas em relação a extensão e interpretação dos dados obtidos. Isto ocorre porque as rochas sedimentares resultam da mistura de fragmentos detríticos de diversas proveniências com diferentes sistemas isotópicos, conseqüentemente, já contendo um registro isotópico da rocha fonte. No caso do método Rb-Sr, aplicado em rochas sedimentares de granulometria fina, pode-se obter idades absolutas para o evento deposicional. Isto é viável desde que este registro isotópico proveniente das rochas fonte seja apagado no momento da deposição, ou seja, deve ocorrer a homogeneização isotópica do Sr no ambiente sedimentar. Para tanto, devem ser observados alguns pré-requisitos em relação a amostragem, granulometria, ambiente deposicional e composição mineralógica das amostras, entre outros. No entanto, ainda existem questionamentos em relação a esta metodologia especialmente quanto à ocorrência e à extensão do processo de homogeneização isotópica do Sr em ambiente sedimentar.(Continua0 O método Sm-Nd, apesar de ser uma técnica relativamente nova quando aplicada a rochas sedimentares, tem se tornado uma ferramenta fundamental para auxílio na determinação de proveniência de rochas sedimentares. As maiores dificuldades estão na correta interpretação dos valores obtidos e sua associação com um ambiente sedimentar, ou seja, de baixa temperatura. Neste trabalho, foram aplicados os métodos radiométricos Rb-Sr e Sm-Nd em amostras de rochas sedimentares coletadas em diferentes contextos geológicos da Bacia do Paraná. Foram tentativamente testados os diferentes parâmetros que atuam no sentido da homogeneização isotópica do Sr e do comportamento do Nd. Os resultados obtidos permitiram aprimorar a metodologia radiométrica Rb-Sr e Sm-Nd quando aplicada em rochas sedimentares, bem como obter resultados sobre a idade deposicional de diferentes unidades sedimentares e, por vezes, sua proveniência.
Resumo:
Resumo não disponível.
Resumo:
No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.
Resumo:
Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.
Resumo:
A avaliação da solicitação produzida por explosões, assim como da resposta de estruturas, são temas de muito interesse na engenharia atualmente, tanto pela quantidade crescente de acidentes relacionados com explosões quanto pelas ações terroristas muitas vezes vinculadas a estes tipos de ações. Neste contexto, o presente trabalho tem por objetivo explorar técnicas de análise tanto na modelagem da excitação quanto na resposta de estruturas consideradas como alvos. Para isto, são utilizadas metodologias de diferentes tipos: implementações baseadas em sistema de elementos finitos comerciais como Ansys [2000] e LS-Dyna [2003] e técnicas simplificativas que permitem realizar uma avaliação preliminar. As aplicações consideradas são indicadas a seguir: • Análise da Resposta de Estruturas Laminares Submetidas à Ação de Cargas Explosivas: determina-se a pressão produzida por explosivos sólidos a certa distância do epicentro, através de métodos simplificados, determinando a resposta esperada em placas retangulares; • Efeito da Pressão Interna em Vasos de Pressão (Extintores de Incêndio): comparando resultados numéricos e experimentais verifica-se a influência da pressão interna nas propriedades dinâmicas do sistema; • Estudo de Um Vaso Esférico de GLP Sob Ação de Uma Carga Explosiva: aplica-se a ação de uma onda explosiva produzida por um gás inflamável pesado sobre uma estrutura de vaso de pressão esférico com fluido e gás em seu interior, determinando sua resposta, avaliando também a influência de diferentes quantidades de líquido e pressão interna na resposta da estrutura; • Modelamento de uma Camada de Solo / Propagação das Ondas: verifica-se o comportamento da propagação de ondas em um meio elástico, comparando valores encontrados em testes experimentais. Analisa-se numericamente o efeito da inserção de uma valeta na atenuação de tais ondas; • Simulação Numérica Completa de uma Explosão: modela-se um semi-espaço submetido à ação de um explosivo sólido sobre sua superfície, avaliando os campos de pressão gerados. Ao final de cada aplicação são apresentadas conclusões parciais obtidas e as possibilidades de trabalhos futuros vislumbrados. Finalmente, conclui-se que as técnicas empregadas para as simulações são extremamente eficientes, considerando conhecidos todos os parâmetros envolvidos em cada modelo. Neste ponto é fundamental o trabalho do engenheiro, utilizando-se de seus conhecimentos técnicos para transformação do evento real em um modelo numérico, considerando e selecionando as simplificações necessárias.
Resumo:
Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.