117 resultados para Estruturas de dados (Computação)

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

90.00% 90.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O estudo do fluxo de água e do transporte escalar em reservatórios hidrelétricos é importante para a determinação da qualidade da água durante as fases iniciais do enchimento e durante a vida útil do reservatório. Neste contexto, um código de elementos finitos paralelo 2D foi implementado para resolver as equações de Navier-Stokes para fluido incompressível acopladas a transporte escalar, utilizando o modelo de programação de troca de mensagens, a fim de realizar simulações em um ambiente de cluster de computadores. A discretização espacial é baseada no elemento MINI, que satisfaz as condições de Babuska-Brezzi (BB), que permite uma formulação mista estável. Todas as estruturas de dados distribuídos necessárias nas diferentes fases do código, como pré-processamento, solução e pós-processamento, foram implementadas usando a biblioteca PETSc. Os sistemas lineares resultantes foram resolvidos usando o método da projeção discreto com fatoração LU por blocos. Para aumentar o desempenho paralelo na solução dos sistemas lineares, foi empregado o método de condensação estática para resolver a velocidade intermediária nos vértices e no centróide do elemento MINI separadamente. Os resultados de desempenho do método de condensação estática com a abordagem da solução do sistema completo foram comparados. Os testes mostraram que o método de condensação estática apresenta melhor desempenho para grandes problemas, às custas de maior uso de memória. O desempenho de outras partes do código também são apresentados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa foi realizada com a intenção de motivar o estudo da criptografia, mostrando que a matemática e a comunicação estão presentes em diversos momentos, tanto no passado quanto no presente. Este trabalho mostra a origem da criptoanálise e toda a sua evolução dando ênfase nos mecanismos de codificação e decodificação através de exemplos práticos. Além disso, alguns métodos criptográficos são destacados como a cifra de substituição monoalfabética, a cifra de Vigenère, a criptografia RSA que é o método mais conhecido de criptografia de chave pública, as cifras de Hill, o método das transformações lineares e o método de Rabin, devido a sua grande importância para a evolução de sistemas computacionais e assinaturas digitais entre outros. Por fim, mostra-se a importância e a necessidade dos recursos criptográficos nos dias de hoje, na tentativa de impedir que hackers e pessoas que fazem mau uso do conhecimento matemático possam causar danos a sociedade, seja por uma simples mensagem ou até mesmo através de situações mais imprudentes como as transações bancárias indevidas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho conta com cinquenta redações de alunos do curso Pré - vestibular do Sintuperj, que já concluíram o Ensino Médio e, agora, se preparam para fazer o exame de acesso ao ensino superior - vestibular. A abordagem proposta se baseia na análise da referenciação, forma de organização coesiva do texto, especificamente, o encapsulamento anafórico. Para verificar a função discursiva desse fenômeno argumentativo nas redações, a análise foi dividida em duas perspectivas: por um lado, foram investigados os tipos de cadeias de referenciação, designadas como específica, rotulando e contribuindo para a progressão referencial no texto; ou como não específica, simplesmente, retomando e resumindo o conteúdo antecedente, evitando repetições. De outro lado, ampliou-se a análise para os elementos que constituem essas cadeias, verificando como foi realizada a menção ao referente através da manutenção temática. Além disso, foi possível notar como essa manutenção dos dados no texto possibilita a coesão textual e enriquece a argumentação que o aluno faz para defender a sua tese. Portanto, pode-se afirmar que a principal contribuição que esse trabalho oferece para o ensino de língua materna concerne na abordagem do texto a partir de uma perspectiva dos processamentos cognitivos, revelando como os elementos vão sendo construídos nas redações, a partir de componentes culturais e conhecimentos diversos dos alunos, que proporcionam a progressão referencial

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Muitos trabalhos têm buscado compreender como se dá o processamento da concordância entre sujeito e verbo e investigar fatores que possam influenciar a produção correta da concordância, gerando os chamados erros de concordância verbal. Franck et al (2010) realizaram pesquisa na língua francesa e encontraram interferência devido a elemento movido sintaticamente na produção da concordância verbal. Se faz necessário investigar se o fenômeno envolvendo movimento é o mesmo em sentenças do português brasileiro. Sendo assim, nosso objetivo foi investigar uma possível interferência de cópia de número plural entre sujeito e verbo (em relação de concordância) de elemento movido sintaticamente em construção de árvore sintática do PB, observando a origem do erro e tentando mostrar se há autonomia do formulador sintático. Ao propormos o diálogo entre Teoria Linguística e Psicolinguística utilizando o Programa Minimalista, versão mais atual do Gerativismo de Chomsky, a fim de observar a derivação sintática e o processamento das sentenças, acreditamos que o estudo de formulação sintática e um olhar por meio de um modelo de processamento, que abarquem tanto a formulação como a produção, esclareceriam a nós pontos importantes sobre o funcionamento da concordância verbal. A nossa hipótese é a de que um erro de concordância verbal não ocorra devido ao formulador sintático em estruturas de PB, buscaremos respostas para isso no modelo MIMC (Modelo Integrado Misto da Computação On-Line) (Corrêa & Augusto, 2007). No entanto, por outro lado, se um erro de concordância ocorre, tentaremos encontrar uma outra explicação que não proveniente da sintaxe, tal como, por exemplo, devido a aspecto de ordem morfofonológica e devido a tamanho da sentença, como colocado pelo modelo PMP (Modelo de Processamento Monitorado por parser (Rodrigues, 2006). À medida que realizamos dois experimentos com sentenças declarativa e interrogativa com o movimento do elemento DP e QU, os resultados mostram que o tamanho da sentença e fatores morfofonológicos podem produzir interferência devido ao tipo de elemento movido. Os resultados cedem terreno para assumir um formulador sintático autônomo e abre caminho para próximas investigações sobre o processamento da concordância verbal e possíveis interferências durante a sua produção

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os métodos potenciais são conhecidos como uma ferramenta útil para estudos regionais. Na Ibéria Ocidental, a gravimetria e a magnetometria podem ser utilizadas para auxiliar no entendimento de algumas questões sobre a estruturação tectônica offshore. Nesta região, tanto as estruturas geradas pela quebra continental, quanto às herdadas do embasamento variscano, tem uma importante contribuição para a resposta geofísica regional observada com estes métodos. Este trabalho tem como objetivo correlacionar as feições geofísicas observadas com alguns modelos geológicos do arcabouço tectônico da Ibéria Ocidental já publicados na literatura. Mapas filtrados foram usados para auxiliar no reconhecimento de diferentes assinaturas geofísicas, os quais foram calculados a partir dos mapas de gravidade Bouguer e do campo magnético total tais como o gradiente horizontal total, derivada tilt, derivada vertical, e integral vertical. O domínio crustal continental foi definido a partir da interpretação dos dados gravimétricos, utilizando gradiente de gravidade horizontal total da Anomalia Bouguer. Os dados magnéticos, originais e filtrados, foram utilizados para identificar mais três domínios regionais offshore, que sugerem a existência de três tipos de crosta não-siálica. Dois deles são propostos como domínios de transição. A região da crosta de transição mais próxima do continente tem uma fraca resposta regional magnética, e a porção mais distal é um domínio de anomalia de alta amplitude, semelhante à resposta magnética oceânica. O limite crustal oceânico não pôde ser confirmado, mas um terceiro domínio offshore, a oeste da isócrona C34, poderia ser considerado como crosta oceânica, devido ao padrão magnético que apresenta. Alguns lineamentos do embasamento foram indicados na crosta continental offshore. As feições gravimétricas e magnéticas interpretadas coincidem, em termos de direção e posição, com zonas de sutura variscanas, mapeados em terra. Assim, esses contatos podem corresponder à continuação offshore destas feições paleozoicas, como o contato entre as zonas de Ossa Morena-Zona Centro-Ibérica. Nesta interpretação, sugere-se que a crosta continental offshore pode ser composta por unidades do Sudoeste da Península Ibérica. Isto permite considerar que a Falha de Porto-Tomar pertence a uma faixa de deformação strike-slip, onde parte das bacias mesozoicas da margem continental está localizada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na maioria das situações relacionadas aos estudos da Terra, um método geofísico não é suficiente para chegar a uma conclusão de uma questão específica, já que o mesmo é passivo de ambiguidades ou incertezas na interpretação. Para tal, se faz necessário que um ou mais métodos sejam integrados, gerando uma resposta que se aproxime do modelo real e com confiabilidade para que a mesma metodologia possa ser aplicada em outros casos similares, otimizando assim a utilização conjunta dos métodos. Partindo desse ponto o presente trabalho sugere a realização de uma Modelagem Gravimétrica 2-D, auxiliada por dados sísmicos e de poços, visando o mapeamento das estruturas profundas da bacia de Santos, já que o conhecimento sobre as mesmas é de grande importância para estudos tectônicos para reconstrução histórica da bacia que servem de parâmetro de entrada nos estudos de modelagem visando reconstruir os processos de geração, migração e acumulação de hidrocarbonetos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho foi feito com dados de campo da Bacia de Benguela, na costa sul de Angola. Nesta área aflora uma plataforma carbonática de idade albiana, análoga às formações produtoras de petróleo de mesma idade na Bacia de Campos. Duas unidades principais compõem a seção albiana na área: uma unidade inferior caracterizada por carbonatos de águas rasas com intercalações de conglomerados e arenitos na base, totalizando 300 m de espessura total, e uma unidade superior formada por sedimentos carbonáticos de águas mais profundas com espessura de 100 m. Esta seção se apresenta em dois domínios estruturais. O norte é caracterizado por uma plataforma de cerca de 5 km de largura, 35 km de comprimento na direção NE e que se encontra próxima ao embasamento. No domínio sul, essa plataforma se apresenta em fragmentos de menos de 10 km de comprimento por até 5 km de largura, alguns deles afastados do embasamento. Dado que há evaporitos sob essa plataforma, fez-se este trabalho com o objetivo de se avaliar a influência da tectônica salífera na estruturação das rochas albianas. A utilização de imagens de satélite de domínio público permitiu a extrapolação dos dados pontuais e a construção de perfis topográficos que possibilitaram a montagem das seções geológicas. Os dados de campo indicam que a estruturação na parte norte, onde há menos sal, é influenciada pelas estruturas locais do embasamento. Já na parte sul, onde a espessura de sal é maior, a deformação é descolada das estruturas do embasamento. Foi feita uma seção geológica em cada domínio e a restauração dessas duas seções mostrou que a unidade albiana na parte sul sofreu uma distensão de 1,25 (125%) e a de norte se distendeu em 1,05 (105%). Essa diferença foi causada por uma maior espessura original de sal na parte sul, que fez com que a cobertura albiana se distendesse mais em consequência da fluência do sal mergulho abaixo, em resposta ao basculamento da bacia em direção a offshore. A intensidade da deformação na parte sul foi tal que os blocos falhados perderam os contatos entre si, formando rafts. Este efeito foi reproduzido em modelos físicos, indicando que a variação na espessura original de sal tem grande influência na estruturação das rochas que o cobrem. As variações de espessura de sal são controladas por zonas de transferência do embasamento e estas mesmas estruturas controlam os limites dos blocos que sofrem soerguimento diferencial no Cenozoico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.