74 resultados para Taxonomia (computação)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Por várias décadas os computadores têm sido utilizados no processo educacional e nem sempre da forma correta. E existe uma forma correta? Não existe consenso, são muitas as tentativas e experiências com inúmeros resultados positivos e negativos. Sabe-se de antemão que um dos fatores que levam ao fracasso alguns ensaios é a mera transposição do material didático tradicional para o meio informatizado, sem alterações na metodologia nem na postura do professor e do aluno. A questão é como a tecnologia pode ser utilizada para favorecer uma Aprendizagem Significativa. Para possibilitar esta pesquisa foi desenvolvido o Laboratório Virtual ASTERIX, utilizado na disciplina de Redes de Computadores do Curso de Ciências da Computação/UFSM. Esse trabalho apresenta os resultados da utilização do laboratório virtual ASTERIX, a metodologia de utilização dos recursos tecnológicos envolvidos (realidade virtual, inteligência artificial e animações/simulações) e avaliação da utilização desse laboratório virtual. A teoria educacional que fundamentou a criação e a utilização do laboratório virtual foi a Aprendizagem Significativa de D. Ausubel e D. Jonassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os efeitos individuais e interativos dos parâmetros ambientais físicos e químicos, como temperatura, intensidade luminosa, salinidade e concentração de fósforo inorgânico dissolvido na água do mar, na produção de proteínas, carboidratos, acúmulo de fósforo tecidual e taxa de absorção do fósforo inorgânico disponível no meio de cultura em Gelidium crinale (Turner) Lamouroux, foram investigados durante um período de sete dias de cultivo laboratorial, em condições controladas. A ação dos parâmetros abióticos foi analisada de três maneiras diferentes. A primeira avaliação integrou a ação de temperatura, intensidade luminosa e fósforo inorgânico dissolvido, mantendo-se fixa a salinidade em 25 ups, onde se constatou que em todos os componentes químicos algais ocorreram interações de terceira ordem. O incremento de 2,28 a 2,67 % nos teores de proteínas foram obtidos à temperatura de 25 °C e 12 μmol m-2 s-1 de intensidade luminosa, diminuindo com a elevação da intensidade luminosa para 40 μmol m-2 s-1. Para carboidratos, ocorreram interações significativas entre os três parâmetros, com um aumento de 6,85 % sendo registrado a 25 °C de temperatura, 24 μmol m-2 s-1 de intensidade luminosa e 10,0 μM de fósforo inorgânico. O aumento máximo na taxa de fósforo tecidual (0,56 %) ocorreu em talos cultivados nas menores temperatura e intensidade luminosa e na maior concentração de fósforo inorgânico dissolvido. Com relação à intensidade luminosa, foi observada uma correlação negativa entre proteínas e carboidratos. A segunda avaliação estabeleceu a ação independente e sinérgica de temperatura, salinidade e fósforo inorgânico disponível no meio de cultivo, fixando-se a intensidade luminosa em 24 μmol m-2s-1. A maior produção de proteínas ocorreu em cultivos onde a temperatura foi de 25 °C, com uma concentração de 5,0 e 10,0 μM de fósforo inorgânico dissolvido e salinidade entre 15 e 20 ups, cujos valores médios do incremento variaram entre 2,62 a 2,83 % peso seco de alga, resultando em uma interação de terceira ordem altamente significativa. Para carboidratos a elevação de 6,85 % em sua concentração está associada à maior temperatura (25 °C), maior salinidade (25 ups) e maior quantidade de fósforo inorgânico disponível no meio de cultivo (10,0 μM). Contudo, não foi observada uma interação de terceira ordem através da análise estatística. Para esta biomolécula observaram-se interações de segunda ordem altamente significativa (P < 0,005) entre temperatura e diferentes concentrações de fósforo inorgânico e entre temperatura e salinidade (P < 0,000). O acúmulo de fósforo nos talos da alga foi menor durante os cultivos em que a salinidade foi de 25 ups,nas temperaturas de 20 e 25 °C e concentração de fósforo disponível de 2,5 μM, com percentuais entre 0,08 a 0,11 % em peso de cinzas. O maior incremento ocorreu na menor temperatura, associada à baixa salinidade e alta concentração de fósforo inorgânico no meio. O coeficiente de correlação de Pearson revelou correlações positivas, altamente significativas (P < 0,001) entre teor de proteína, temperatura e disponibilidade de fósforo inorgânico no meio de cultivo. Para carboidratos, as correlações foram positivas com os três parâmetros abióticos. Para fósforo tecidual somente com o fósforo inorgânico disponível no cultivo foi que ocorreu uma relação positiva; com os outros dois parâmetros esta correlação foi negativa. Entre os componentes químicos encontrados nas algas, proteínas e carboidratos apresentaram uma relação positiva, porém fósforo tecidual apresentou uma correlação negativa com ambos, embora com proteínas esta relação não tenha sido significativa. A terceira avaliação estudou a ação individual e o sinergismo entre os parâmetros ambientais, temperatura, intensidade luminosa e salinidade, a uma concentração fixa de fósforo inorgânico disponível no meio de cultivo (10,0 μM), sobre a composição química, bem como na taxa de absorção de fósforo inorgânico disponível. Observou-se a ocorrência de interações de terceira ordem em todos as variáveis estudadas. O teor de proteínas apresentou um aumento de 3,72 % durante o período de cultivo, passando de 20,63 % antes do cultivo, para 24,35 % após o término do experimento, principalmente nas condições de 25 °C de temperatura, 12 μmol m-2s-1 de intensidade luminosa e 15 ups de salinidade. Para carboidratos, nas condições de baixa intensidade luminosa (12 μmol m-2s- 1), a uma temperatura de 20 °C e salinidades de 10 e 15 ups, foram registrados valores inferiores à amostra controle, caracterizando um consumo desta biomolécula por parte das algas. Nestas mesmas condições ambientais, foram registrados os maiores teores de fósforo tecidual, variando entre 0,86 a 1,09 % do peso das cinzas. As maiores taxas de absorção do fósforo do meio ocorreram na salinidade de 25 ups e 25 °C de temperatura, diminuindo da intensidade luminosa de 12 μmol m-2s-1 para 40 μmol m-2s-1. As maiores concentrações de fósforo inorgânico residual na água do meio de cultivo ocorreram nas salinidades de 10 e 15 ups, em todas as intensidade luminosas e temperaturas estudadas. Através do coeficiente de correlação de Pearson, observou-se que os teores de proteínas apresentaram uma forte correlação negativa com a intensidade luminosa e positiva com a temperatura e salinidade, embora com esta última não tenha sido significativa. Para carboidratos, as correlações com os parâmetros abióticos foram todas positivas. Correlações negativa e positiva, não significativas, foram observadas entre esta biomolécula e o teor de proteínas e a taxa de absorção de fósforo disponível no meio, respectivamente. Por outro lado, com fósforo tecidual, ocorreu uma correlação negativa, altamente significativa. Este estudo mostra o estado fisiológico de Gelidium crinale e contribui para o estabelecimento das melhores condições de cultivo para produção de proteína, carboidrato e fósforo tecidual e indicação do uso racional de nutrientes, fornecendo informações para a otimização de processos de maricultura, tanto em termos de cultivo bem sucedido de algas, quanto de redução no impacto sobre o ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das questões críticas relacionadas com um Ambiente Adaptativo de Ensino e Aprendizagem baseado na Web diz respeito à eficácia da aprendizagem do aluno remoto. Assim como diversos trabalhos de pesquisa na literatura, nosso estudo preocupou-se com a modelagem do Estilo Cognitivo de Aprendizagem (ECA) do aluno visando, em um futuro próximo, a adaptação dos conteúdos pedagógicos a esta importante característica individual do aluno. Esta tese descreve a metodologia utilizada para investigar como modelar o ECA do aluno remoto, baseado na observação e análise de seu comportamento em um ambiente de ensino e aprendizagem na Web. Em nosso estudo, o ECA representa o estágio de desenvolvimento cognitivo do aluno, de acordo com a taxonomia de Bloom. Nós acreditamos que os principais benefícios de adaptar a instrução ao ECA do aluno estão relacionados com a possibilidade de oportunizar a ampliação de suas habilidades cognitivas, assim como oportunizar a aprendizagem em profundidade sobre os conteúdos em estudo. A metodologia quase-experimental usada para a modelagem do ECA do aluno compreendeu duas fases distintas: (i) geração das classes de ECA a partir da aplicação de um teste psicológico em uma amostra da população-alvo; e (ii) desenvolvimento do módulo de ensino experimental e o estudo das Trajetórias de Aprendizagem (TA) padrão das classes de ECA, a partir da observação de seus comportamentos durante a execução de uma sessão de estudo na Web. Como resultado deste estudo, identificamos os principais indicadores, que melhor discriminaram as classes de ECA consideradas. Os resultados foram obtidos a partir da observação e análise das TAs na Web. Todo o conhecimento obtido a partir desta investigação deverá nos permitir automatizar o diagnóstico do ECA do aluno remoto. Este conhecimento também será utilizado como base para o desenvolvimento dos conteúdos a serem oferecidos ao aluno pelo Ambiente Adaptativo de Ensino e Aprendizagem baseado na Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os gêneros Nicotiana L., Bouchetia Dunal e Nierembergia Ruiz & Pav. da tribo Nicotianeae G.Don (Solanaceae), presentes no estado do Rio Grande do Sul, apresentam diversas características em comum, como o hábito predominantemente herbáceo, fruto seco, capsular, com numerosas sementes. Estes gêneros distinguem-se basicamente por Nicotiana apresentar prefloração geralmente contorcido-conduplicada ou conduplicada, corola infundibuliforme, tubular ou hipocrateriforme, anteras dorsifixas e um disco nectarífero presente, enquanto que Bouchetia e Nierembergia apresentam prefloração imbricadoconduplicada ou imbricada e anteras ventrifixas. Em Bouchetia a corola é campanulado-infundibuliforme e um disco nectarífero está presente, enquanto que em Nierembergia a corola é hipocrateriforme e o disco nectarífero está ausente. O gênero Nicotiana, da subtribo Nicotianineae, está representado no Estado por seis espécies nativas: N. alata Link & Otto, N. bonariensis Lehm., N. forgetiana Hemsl., N. langsdorffii Weinm., N. longiflora Cav. e N. mutabilis Stehmann & Semir. Duas outras espécies, provavelmente originárias da Argentina, são também encontradas no Estado: N. glauca Graham, que ocorre de forma ruderal ou cultivada e N. tabacum L., também cultivada, de importância econômica por ser fonte de matéria prima para a indústria do fumo. A única espécie do gênero Bouchetia, presente no Estado, é Bouchetia anomala (Miers) Britton & Rusby, endêmica da região sul do Brasil, Uruguai, Paraguai e nordeste da Argentina. Pertence à subtribo Nierembergiinae Hunz., junto com Nierembergia, com quem apresenta maior afinidade. Nierembergia está representado no Rio Grande do Sul por cinco espécies nativas: N. linariifolia Graham, N. micrantha Cabrera, N. pinifolia Miers, N. riograndensis Hunz. & A.A.Cocucci e N. scoparia Sendtn. Chaves analíticas para identificação dos gêneros da tribo Nicotianeae G.Don e para os da subtribo Nierembergiinae, assim como para as espécies de Nicotiana, Bouchetia e Nierembergia, são apresentadas. Descrições para os três gêneros e suas espécies, ilustrações, mapas de distribuição geográfica no Estado, considerações quanto ao hábitat, observações sobre a fenologia, variabilidade morfológica e outros comentários também são referidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização da abordagem de agentes, nas mais diversas áreas de aplicações, mostra o interesse nas pesquisas sobre sistemas multiagentes. Este interesse surgiu da necessidade de aplicar novas técnicas e conceitos para a construção de sistemas e para auxiliar no seu desenvolvimento. Neste sentido, os agentes satisfazem às expectativas, não sendo apenas utilizados para a solução de problemas acadêmicos, mas também de sistemas reais. Na ciência da computação, a inteligência artificial distribuída está profundamente relacionada com o problema de coordenação. O objetivo é projetar mecanismos de coordenação para grupos de agentes artificiais. Várias características envolvem a atuação de agentes em um ambiente multiagente, como os mecanismos de cooperação, coordenação, comunicação, organização, entre outros. Este trabalho apresenta um estudo sobre coordenação multiagente, enfatizando a sua avaliação. O objetivo é apresentar uma proposta de avaliação, com um conjunto de critérios definidos para serem aplicados em modelos de coordenação. Inicialmente, é apresentado um estudo sobre coordenação de agentes. A seguir, são abordados vários modelos de coordenação encontrados na literatura da área. A parte principal do trabalho corresponde à definição de critérios para avaliação da coordenação, a serem utilizados em duas etapas: uma análise do problema, com vistas à escolha de um modelo de coordenação a ser empregado em uma determinada aplicação, e uma avaliação a posteriori, baseada nos critérios propostos para avaliar o comportamento de um sistema coordenado após o uso de um modelo de coordenação específico.Para exemplificar a aplicação dos critérios, dois estudos de caso são apresentados e foram utilizados para os experimentos: um referente ao domínio da Robocup, utilizando o Time UFRGS e, outro, referente ao gerenciamento de agendas distribuídas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar um modelo eficiente de representação de conhecimento que é construído a partir de relações de causa e efeito entre percepções e ações. Assume-se que é possível perceber o ambiente, é necessário fazer decisões mediante incerteza, é possível perceber a realimentação (feedback) referente ao sucesso ou fracasso das ações escolhidas, e é possível aprender com a experiência. Nós descrevemos uma arquitetura que integra o processo de percepção do ambiente, detecção de contexto, tomada de decisão e aprendizagem, visando obter a sinergia necessária para lidar com as dificuldades relacionadas. Além da descrição da arquitetura, é apresentada de forma sucinta uma metodologia chamada Computação Contextual, composta por duas fases principais: Definição e Operação. A fase de Definição envolve o projeto e modelagem de: i) Os subespaços de conhecimento conceitual e canônico; e ii) As regras de crescimento dinâmico. A fase de Operação complementa (isto é, estende e adapta) as definições iniciais através da aprendizagem feita pela interação com o ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação trata da fatoração de polinômios em duas variáveis sobre um corpo F. Mais precisamente, o trabalho traça o desenvolvimento histórico de uma estratégia modular que levou à resolução desse problema em tempo polinomial e culmina com a apresentação de um algoritmo publicado por S. Gao no ano de 2003, que determina simultaneamente as fatorações racional e absoluta de um dado polinômio. A nossa contribuição consiste na extensão desse algoritmo a casos que não satisfazem as condições prescritas pelo autor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vídeos de histeroscopias são usados para avaliar a aparência do útero, e são de importância fundamental para os ginecologistas. Estes vídeos contém uma grande quantidade de informação, porém somente um número reduzido de quadros são úteis para propósitos de diagnóstico (por exemplo, a análise da distribuição espacial de glândulas). Sendo assim, este trabalho propõe um método inovador para a análise de vídeos de histeroscopias, com dois objetivos principais: (a) reduzir o número de quadros necessários para a representação do conteúdo do vídeo, e (b) prover uma medida quantitativa da distribuição das glândulas em tais vídeos. A abordagem proposta para a sumarização do vídeo é baseada na extensão de um princípio estatístico conhecido (decomposição em valor singular), e, segundo resultados preliminares, apresenta vantagens sobre os trabalhos publicados na literatura. Observou-se que a análise quantitativa da distribuição das glândulas também apresenta uma maior discriminação do que relatado na literatura. A abordagem proposta é adaptativa no sentido de minimizar a necessidade do ajuste de parâmetros. Além disso, o método é robusto quanto as condições de iluminação e a presença de artefatos (por exemplo, reflexos), os quais são comuns nestes vídeos. Por fim, os experimentos indicam que os resultados obtidos são compatíveis com os obtidos pelos ginecologistas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo estudar as repercussões do emprego de recursos informáticos aplicados ao projeto arquitetônico e da sua interação com o usuário. A relação entre computação gráfica e projeto arquitetônico é um assunto já bastante discutido, seja como a aplicação do potencial matemático da ferramenta para a composição das formas, ou ainda, como experimentações no campo da realidade virtual. No entanto, sob o ponto de vista do projeto arquitetônico e da sua apropriação da ferramenta pouco se tem dito, é nesta lacuna que a dissertação pretende se inserir. Desenvolvo a questão em duas partes principais. A primeira tem o objetivo de situar o leitor no assunto proposto, procurando possíveis repostas para relação entre usuário/projeto/máquina. A segunda parte se concentra no projeto arquitetônico como forma de investigação, amparada em um estudo de caso, resultado da observação do atelier. Procuro tecer as relações entre o projeto dos alunos, como resposta às instruções dos professores, e o uso da computação gráfica na composição do projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.