37 resultados para Processamento paralelo visual

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas de vídeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Através do processamento de imagens digitais, mais especificamente as etapas de segmentação e classificação, foi possível analisar o processo de ocupação humana da bacia hidrográfica do rio Bonfim, localizada no município de Petrópolis, no estado do Rio de Janeiro. Este processo possibilitou a geração de mapas de uso da terra e cobertura vegetal e configurou-se numa importante etapa para avaliação ambiental capaz de auxiliar e dar fomento à execução de atividades de gestão e monitoramento do meio ambiente e de análise histórica dos remanescentes florestais ao longo dos últimos anos. Nesta pesquisa foram adotadas classes temáticas com o propósito de permitir a classificação das imagens digitais na escala 1/40.000. As classes adotadas foram: afloramento rochoso e vegetação rupestre; obras e edificações; áreas agrícolas e vegetação. Estudos foram feitos no sentido de indicar o melhor método de classificação. Primeiramente, efetuou-se a classificação no sistema SPRING, testando-se os melhores parâmetros de similaridade e área na detecção de fragmentos, somente da classe vegetação. Houve tentativa de classificar as demais classes de uso diretamente pelo sistema SPRING, mas esta classificação não foi viável por apresentar conflitos em relação às classes, desta forma, neste sistema foi feita somente a classificação e quantificação da classe vegetação. Visando dar continuidade a pesquisa, optou-se por executar uma interpretação visual, através do sistema ArcGis, para todas as classes de uso do solo, possibilitando o mapeamento da dinâmica de evolução humana, diante da floresta de mata atlântica na área de estudos e análise histórica de seus remanescentes entre os anos dos anos 1965, 1975, 1994 e 2006.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho foi avaliar in vivo a detecção de cárie através do exame visual ICDAS, transiluminação por fibra ótica combinado ao ICDAS e exame radiográfico. Um total de 2.279 superfícies proximais e cicatrículas e fissuras em incisivos superiores, pré-molares e molares permanentes e 272 superfícies em molares decíduos em72 escolares (8 a 18 anos) foram avaliadas por um examinador treinado. Os sete escores para detecção de cárie primária do sistema visual ICDAS foram aplicados. Dois equipamentos de transiluminação por fibra ótica foram avaliados: FOTI Schott (SCH), com ponta de fibra ótica com 0,5mm de diâmetro, e FOTI Microlux (MIC), com diâmetro da ponta 3 mm. Durante o exame combinado FOTI/ICDAS, a fibra ótica era utilizada tanto para iluminar quanto para transiluminar a superfície sob avaliação. O exame radiográfico (RX) consistiu de radiografias interproximais posteriores e periapicais anteriores. Os exames foram realizados em consultório odontológico após escovação supervisionada. No primeiro dia de exame, o exame visual utilizando o ICDAS era realizado e em seguida, o exame combinado ao MIC ou SCH. Logo após era realizado o exame radiográfico. Após uma semana, novamente o ICDAS era realizado, e em seguida o exame combinado com o equipamento de FOTI não utilizado na semana anterior. Os exames foram repetidos em 10 pacientes após intervalo mínimo de uma semana para avaliação da reprodutibilidade intra-examinador, a qual apresentou valores de 0,95 (ICDAS), 0,94 (MIC), 0,95 (SCH) e 0,99 (RX) pelo kappa ponderado. Em cicatrículas e fissuras de permanentes, o RX julgou que um número maior de superfícies apresentava lesão em dentina (53) do que os outros métodos (34 a 36); porém não detectou nenhuma lesão em esmalte, as quais foram identificadas pelo ICDAS (94), SCH (107) e MIC (91). Em proximais permanentes, a transiluminação por fibra ótica identificou maior número de proximais como lesão em esmalte - 150 (SCH) e 139 (MIC) - do que o exame visual (106), enquanto o RX identificou somente 43. Em oclusais de decíduos, os quatro métodos julgaram um número aproximadamente similar de superfícies sem lesão (52 a 59) ou com lesão em dentina (21 a 26), assim como para lesões proximais em dentina (31 a 36). Entretanto um número reduzido de lesões proximais decíduas em esmalte foi julgado pelo exame radiográfico (3) em comparação com os outros métodos (15 a 16). Em decíduos, o ICDAS e o FOTI combinado ao exame visual julgaram maior número de lesões proximais em esmalte que o exame radiográfico, sendo que número similar de lesões em dentina foram classificadas pelos quatro métodos em oclusais e proximais de molares decíduos. Em cicatrículas e fissuras de permanentes, tanto o exame visual ICDAS quanto sua combinação aos dois equipamentos de transiluminação apresentaram maior similaridade de superfícies julgadas como lesão em esmalte ou como lesão em dentina, enquanto o exame radiográfico classificou mais superfícies como lesão em dentina e nenhuma como lesão em esmalte. A adição da transiluminação por fibra ótica ao exame visual aumentou em um terço a detecção das lesões cariosas proximais julgadas em dentina pelo ICDAS isoladamente e aproximadamente quadruplicou o número daquelas assim classificadas pela avaliação radiográfica em permanentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese destina-se a desenvolver estudo semiótico de propagandas impressas em que a pessoa negra é posta em presença. Investiga-se como a propaganda veiculada em revista, mediante seleção e combinação sígnicas, efetiva a construção da imagem verbo-visual do negro, tendo em vista o produto anunciado e os projetos comunicativos do enunciador e, assim, como finda por ratificar ou (re)elaborar significados sociais acerca desse sujeito. Pautando-se na Semiótica de Charles Sanders Peirce e tendo por suporte, fundamentalmente, a Teoria da Iconicidade Verbal de Simões (2009), a pesquisa aborda todos os signos verbais e não verbais em diálogo, como dotados de potencial icônico, não só revelador dos projetos de texto, como também ativador de interpretações/leituras e, ainda, delineador de sentidos, posteriormente cristalizados e convertidos em significados imanentes aos signos e aos objetos reportados. Por ter, como material constitutivo do corpus, textos elaborados em linguagem mista, a pesquisa propõe a aplicação da Teoria da Iconicidade Verbal ao universo dos signos lato sensu. O debate apresenta o texto de propaganda como excelente material, não só para implementar os estudos de História e Cultura Afro-brasileiras, como prevê a Lei 10.639/03, como também para subsidiar o ensino de língua portuguesa, com ênfase para os estudos sobre leitura e produção textual, para que se forme sujeito dotado de habilidades que lhe permitam reconhecer no verbal e no não verbal a revelação e a geração de sentidos sociais

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Copolímeros casca-núcleo de poli(acrilato de butila) (núcleo) e poliestireno (casca) foram sintetizados por meio de polimerização em emulsão, conduzida em duas etapas. A adição de ácido itacônico como monômero funcional na polimerização do núcleo foi realizada para verificar seu efeito sobre suas propriedades mecânicas e de processamento. Os copolímeros foram caracterizados por espalhamento dinâmico de luz (DLS), microscopia eletrônica de transmissão (MET), cromatografia de exclusão por tamanho (SEC), espectrometria na região do infravermelho (FTIR) e calorimetria diferencial por varredura (DSC). A incorporação do monômero funcional foi confirmada por DSC e quantificada por titulação. A proporção de poli(acrilato de butila) e poliestireno influenciou diretamente o processamento e as propriedades mecânicas do polímero. Os copolímeros com teores de poliestireno acima de 50% foram processados por compressão e extrusão a temperatura ambiente, apresentando comportamento baroplástico. A presença do monômero funcional não alterou o processamento do polímero e melhorou significativamente sua resistência à tração, aumentando sua tenacidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A padronização para a fabricação de instrumentos endodônticos em aço inoxidável contribuiu para o desenvolvimento de novos aspectos geométricos. Surgiram propostas de alterações no desenho da haste helicoidal, da seção reta transversal, da ponta, da conicidade e do diâmetro na extremidade (D0). Concomitantemente, o emprego de ligas em Níquel-Titânio possibilitou a produção de instrumentos acionados a motor, largamente empregados hoje. A cada ano a indústria lança instrumentos com diversas modificações, sem, contudo, disponibilizar informações suficientes quanto às implicações clínicas destas modificações. Existe um crescente interesse no estudo dos diferentes aspectos geométricos e sua precisa metrologia. Tradicionalmente, a aferição de aspectos geométricos de instrumentos endodônticos é realizada visualmente através de microscopia ótica. Entretanto, esse procedimento visual é lento e subjetivo. Este trabalho propõe um novo método para a metrologia de instrumentos endodônticos baseado no microscópio eletrônico de varredura e na análise digital das imagens. A profundidade de campo do MEV permite obter a imagem de todo o relevo do instrumento endodôntico a uma distância de trabalho constante. Além disso, as imagens obtidas pelo detector de elétrons retro-espalhados possuem menos artefatos e sombras, tornando a obtenção e análise das imagens mais fáceis. Adicionalmente a análise das imagens permite formas de mensuração mais eficientes, com maior velocidade e qualidade. Um porta-amostras específico foi adaptado para obtenção das imagens dos instrumentos endodônticos. Ele é composto de um conector elétrico múltiplo com terminais parafusados de 12 pólos com 4 mm de diâmetro, numa base de alumínio coberta por discos de ouro. Os nichos do conector (terminais fêmeas) têm diâmetro apropriado (2,5 mm) para o encaixe dos instrumentos endodônticos. Outrossim, o posicionamento ordenado dos referidos instrumentos no conector elétrico permite a aquisição automatizada das imagens no MEV. Os alvos de ouro produzem, nas imagens de elétrons retro-espalhados, melhor contraste de número atômico entre o fundo em ouro e os instrumentos. No porta-amostras desenvolvido, os discos que compõem o fundo em ouro são na verdade, alvos do aparelho metalizador, comumente encontrados em laboratórios de MEV. Para cada instrumento, imagens de quatro a seis campos adjacentes de 100X de aumento são automaticamente obtidas para cobrir todo o comprimento do instrumento com a magnificação e resolução requeridas (3,12 m/pixel). As imagens obtidas são processadas e analisadas pelos programas Axiovision e KS400. Primeiro elas são dispostas num campo único estendido de cada instrumento por um procedimento de alinhamento semi-automático baseado na inter-relação com o Axiovision. Então a imagem de cada instrumento passa por uma rotina automatizada de análise de imagens no KS400. A rotina segue uma sequência padrão: pré-processamento, segmentação, pós-processamento e mensuração dos aspectos geométricos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sedimentos em suspensão representam um dos principais fatores que afetam a qualidade dos sistemas aquáticos no mundo; influenciam os processos geomórficos de construção da paisagem e podem indicar problemas de erosão e perda de solo na bacia hidrográfica contribuinte. O seu monitoramento espacial e temporal é fundamental nas atividades de gestão ambiental de áreas costeiras. Nesse sentido, a hipótese básica desta pesquisa é que o padrão espacial e temporal de plumas de sedimentos costeiras associado ao regime hidrológico do rio pode ser caracterizado a partir de imagens orbitais de média resolução espacial. Para comprová-la, elegeu-se a foz do rio Paraíba do Sul como área de estudo para definição e teste metodológico, e formulou-se como principal objetivo mapear qualitativamente a pluma costeira deste rio a partir de imagens Landsat 5 e CBERS-2, ao longo do período compreendido entre 1985 e 2007. As datas avaliadas foram criteriosamente definidas através de três estratégias de análise, totalizando cinqüenta imagens. Pesquisa bibliográfica e avaliação da resposta espectral da feição de interesse nas imagens selecionadas consistiram nas etapas principais da definição da metodologia. As plumas foram então identificadas, mapeadas e extraídas; posteriormente, suas características espaciais e temporais foram analisadas por intermédio de sistemas de informação geográfica e avaliadas em conjunto com dados históricos de vazão. Os resultados indicam que a banda do vermelho forneceu uma melhor discriminação interna da pluma, sendo, portanto, utilizada como base para as análises realizadas neste trabalho. Com exceção do procedimento de correção atmosférica, a metodologia proposta consiste na utilização de técnicas simples de processamento digital de imagens, baseadas na integração de técnicas semi-automáticas e de análise visual. A avaliação do padrão dos sedimentos e dos mapas temáticos qualitativos de concentração de sedimentos em suspensão indica a forte diferenciação existente entre cenários representativos de épocas de cheia e seca do rio. Análises espaciais do comportamento da pluma contribuem ainda para um maior conhecimento do espaço geográfico, fornecendo subsídios aos mais variados setores do planejamento e gestão ambiental.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desse trabalho foi utilizar métodos não destrutivos (END), como a microtomografia com Raio X e técnicas de obtenção e processamento de imagens, para obtenção da porosidade do concreto. Foram utilizados dois métodos. Em um método as imagens foram obtidas por meio de microtomografia por Raio X e no outro foi utilizado um escâner comercial para obtenção das imagens. Essas imagens foram processadas por meio de técnicas de processamento de pixel e morfologia matemática. Os resultados obtidos para a porosidade foram comparados com resultado obtido por meio do método proposto pela NBR 9778 (2005) (Absorção de água, índice de vazios e massa específica em argamassa e concreto endurecido). As imagens microtomográficas das amostras de concreto foram obtidas num sistema Skyscan 1172 com 256 tons de cinza, ajustadas em contraste, binarizadas e filtradas. No outro método foi utilizado um Escâner Comercial com resolução de 2400 dpi para adquirir as imagens, sendo também utilizadas técnicas de processamento de pixel e morfologia matemática para processá-las. Os resultados dos valores da porosidade mostraram compatibilidade entre os dois métodos apresentados e o método proposto pela NBR 9778 (2005). Observou-se que os resultados obtidos por microtomografia foram mais confiáveis, mas o método utilizando o escâner comercial se apresentou como um método aceitável por seus resultados e principalmente por seu baixo custo e facilidade de operação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação é um estudo de caso com caráter exploratório (Rampazo, 2005; Babie, 2008). Na parte teórica, propomos a categorização triádica das imagens no ciberespaço, que é uma das contribuições deste trabalho para a área de estudos sobre leitura no ciberespaço. A investigação apresenta como objetivos acompanhar e analisar o processo leitor de um professor de espanhol como língua estrangeira no ciberespaço, tendo como foco a multimodalidade. Tais objetivos têm a função de nortear a resolução dos problemas de pesquisa, a saber: (a) como um professor de ELE lê no ciberespaço tendo em vista as imagens como aspectos da multimodalidade; (b) como esse professor transpõe sua própria atividade leitora e os materiais da internet para uma atividade de aula. Os instrumentos de coleta utilizados foram: entrevista, questionário, protocolos e gravações do GTK. O cruzamento entre 12 critérios de análise permitiu, dentre outros detalhes, observar que nosso sujeito lê textos verbais no ciberespaço movimentando o cursor do mouse como se fosse seus dedos sobre uma folha de papel a percorrer linha a linha da esquerda para a direita. Também percebemos que a experiência de leitura no ciberespaço (conhecimentos prévios) pode ser o fator que contribui para que o sujeito despreze as imagens de categorias mescladas (B e C) e prefira utilizar as imagens de categoria B, no caso, por exemplo, de acessar uma reportagem a partir de sua manchete em jornal eletrônico. Quanto à transposição de materiais para as aulas, percebemos que a formação acadêmica de nosso sujeito ao não direcionar discussões teóricas e metodológicas sobre as TICs e seu uso em sala de aula e sua realidade de trabalho podem ter contribuído para o modo como o sujeito transpõe os materiais da internet para as aulas. As adaptações e afastamentos desses materiais não são trabalhados em sala de aula. As imagens e links são retirados e o texto utilizado na atividade docente é uma mistura de vários materiais provenientes de diferentes países, mas sem a fonte especificada na aula. O papel que a formação tem para a vida profissional e para a práxis do professor não pode ser descartado. Defendemos que uma formação que seja direcionada às TICs deve fazer parte do currículo acadêmico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.