1000 resultados para Neurociència computacional


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La present Tesi Doctoral, titulada desenvolupament computacional de la semblança molecular quàntica, tracta, fonamentalment, els aspectes de càlcul de mesures de semblança basades en la comparació de funcions de densitat electrònica.El primer capítol, Semblança quàntica, és introductori. S'hi descriuen les funcions de densitat de probabilitat electrònica i llur significança en el marc de la mecànica quàntica. Se n'expliciten els aspectes essencials i les condicions matemàtiques a satisfer, cara a una millor comprensió dels models de densitat electrònica que es proposen. Hom presenta les densitats electròniques, mencionant els teoremes de Hohenberg i Kohn i esquematitzant la teoria de Bader, com magnituds fonamentals en la descripció de les molècules i en la comprensió de llurs propietats.En el capítol Models de densitats electròniques moleculars es presenten procediments computacionals originals per l'ajust de funcions densitat a models expandits en termes de gaussianes 1s centrades en els nuclis. Les restriccions físico-matemàtiques associades a les distribucions de probabilitat s'introdueixen de manera rigorosa, en el procediment anomenat Atomic Shell Approximation (ASA). Aquest procediment, implementat en el programa ASAC, parteix d'un espai funcional quasi complert, d'on se seleccionen variacionalment les funcions o capes de l'expansió, d'acord als requisits de no negativitat. La qualitat d'aquestes densitats i de les mesures de semblança derivades es verifica abastament. Aquest model ASA s'estén a representacions dinàmiques, físicament més acurades, en quant que afectades per les vibracions nuclears, cara a una exploració de l'efecte de l'esmorteïment dels pics nuclears en les mesures de semblança molecular. La comparació de les densitats dinàmiques respecte les estàtiques evidencia un reordenament en les densitats dinàmiques, d'acord al que constituiria una manifestació del Principi quàntic de Le Chatelier. El procediment ASA, explícitament consistent amb les condicions de N-representabilitat, s'aplica també a la determinació directe de densitats electròniques hidrogenoides, en un context de teoria del funcional de la densitat.El capítol Maximització global de la funció de semblança presenta algorismes originals per la determinació de la màxima sobreposició de les densitats electròniques moleculars. Les mesures de semblança molecular quàntica s'identifiquen amb el màxim solapament, de manera es mesuri la distància entre les molècules, independentment dels sistemes de referència on es defineixen les densitats electròniques. Partint de la solució global en el límit de densitats infinitament compactades en els nuclis, es proposen tres nivells de aproximació per l'exploració sistemàtica, no estocàstica, de la funció de semblança, possibilitant la identificació eficient del màxim global, així com també dels diferents màxims locals. Es proposa també una parametrització original de les integrals de recobriment a través d'ajustos a funcions lorentzianes, en quant que tècnica d'acceleració computacional. En la pràctica de les relacions estructura-activitat, aquests avenços possibiliten la implementació eficient de mesures de semblança quantitatives, i, paral·lelament, proporcionen una metodologia totalment automàtica d'alineació molecular. El capítol Semblances d'àtoms en molècules descriu un algorisme de comparació dels àtoms de Bader, o regions tridimensionals delimitades per superfícies de flux zero de la funció de densitat electrònica. El caràcter quantitatiu d'aquestes semblances possibilita la mesura rigorosa de la noció química de transferibilitat d'àtoms i grups funcionals. Les superfícies de flux zero i els algorismes d'integració usats han estat publicats recentment i constitueixen l'aproximació més acurada pel càlcul de les propietats atòmiques. Finalment, en el capítol Semblances en estructures cristal·lines hom proposa una definició original de semblança, específica per la comparació dels conceptes de suavitat o softness en la distribució de fonons associats a l'estructura cristal·lina. Aquests conceptes apareixen en estudis de superconductivitat a causa de la influència de les interaccions electró-fonó en les temperatures de transició a l'estat superconductor. En aplicar-se aquesta metodologia a l'anàlisi de sals de BEDT-TTF, s'evidencien correlacions estructurals entre sals superconductores i no superconductores, en consonància amb les hipòtesis apuntades a la literatura sobre la rellevància de determinades interaccions.Conclouen aquesta tesi un apèndix que conté el programa ASAC, implementació de l'algorisme ASA, i un capítol final amb referències bibliogràfiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigação permitirá conhecer detalhadamente a interligação entre Neurociência e aprendizagem. Este conhecimento pode potenciar os resultados do processo de ensino-aprendizagem usando a estimulação cerebral. A investigação dá conta do processo de investigação-ação que foi desenvolvido em torno da aplicação do “Programa de Neurociência Intervenção em Leitura e Escrita”. O programa foi aplicado junto de cinco crianças de primeiro ciclo, do 3º ano de escolaridade, que manifestaram dificuldades de leitura e escrita, necessitando de intervenção direta. Antes da aplicação do programa de Neurociência foram aplicados o Reversal Test, o Teste de Idade de Leitura e o Teste de Avaliação da Leitura e Escrita. Após aplicação do programa, recorreu-se aos mesmos testes para se estabelecer uma análise comparativa. Este programa pretende estimular áreas específicas do cérebro, presentes ao nível da leitura e escrita, de forma a auferir se é possível uma melhoria neste domínio. Também pretende melhorar a prática educativa do professor investigador através do aprofundamento de questões que interligam a Neurociência e a aprendizagem. Concluiu-se, assim, que através da aplicação do programa e da investigação em torno deste é possível melhorar a prática educativa e estimular as zonas cerebrais implicadas no processo de leitura e escrita melhorando estas áreas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A concorrência nos mercados locais e internacionais tem levado as empresas a tomarem-se cada vez mais competitivas e atentas as mud3nças no mercado, possibilitando-Ihes melhorias em seus processos produtivos. Este trabalho apresenta a modelagem e análise de melhorias no processo produtivo de uma empresa de montagem de câmaras de bronzeamento. A simulação computacional foi utilizada como ferramenta de análise das possíveis oportunidades de melhorias a serem introduzidas no processo produtivo. O processo original foi modelado com o objetivo de identificar e caracterizar a distribuição de tempos e utilização dos equipamentos e rerorsos presentes no processo produtivo da empresa. Diferentes propostas de melhorias foram investigadas e uma nova modelagem do processo foi sugerida, considerando exigências do mercado e características do processo produtivo empresarial. Comparações matemáticas entre os resultados foram elaboradas e as conclusões sobre o estudo são apresentadas ao final do trabalho. Os resultados da simulação estão sendo usados para avaliar possíveis alterações no processo produtivo da empresa, bem como para gerar documentos que registram conhecimento corporativo sobre possíveis arranjos na produção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi o de investigar o desempenho de estudantes quando expostos a atividades complementares de modelagem computacional na aprendizagem de Física, utilizando o software Modellus. Interpretação de gráficos da Cinemática foi o tópico de Física escolhido para investigação. A fundamentação teórica adotada esteve baseada na teoria de Halloun sobre modelagem esquemática e na teoria de Ausubel sobre aprendizagem significativa. O estudo envolveu estudantes do primeiro ano do curso de Física da Universidade Federal do Rio Grande do Sul. Vinte seis destes estudantes - grupo experimental - foram submetidos a atividades de modelagem exploratórias e de criação durante um breve intervalo de tempo (quatro encontros, com 2h15min cada). Vinte e seis outros estudantes constituíram um grupo de controle, adotando-se um delineamento quasi-experimental. Os resultados deste trabalho mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle, submetidos apenas ao método tradicional de ensino. A percepção do aluno em relação à relevância de conceitos e relações matemáticas, bem como a motivação para aprender, gerada pelas atividades, desempenharam um papel fundamental nesses resultados. Além disso, registrou-se alta receptividade em relação ao tratamento utilizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A atividade de teste constitui uma fase de grande importância no processo de desenvolvimento de software, tendo como objetivo garantir um alto grau de confiabilidade nos produtos desenvolvidos. O paradigma da Orientação a Objetos (OO) surgiu com o objetivo de melhorar a qualidade bem como a produtividade no desenvolvimento de aplicações. Entretanto, apesar do aumento constante de aceitação do paradigma OO pela indústria de software, a presença de algumas de suas características torna a atividade de teste de programas neste paradigma mais complexa do que o teste de sistemas tradicionais. Entre estas características cita-se a herança, o encapsulamento, o polimorfismo e a ligação dinâmica [EIS 97] [PRE 95] [UNG 97]. Algumas técnicas estão sendo implementadas para auxiliarem a atividade de teste através do uso da tecnologia de reflexão computacional [HER 99]. Estas técnicas permitem a realização de análises de aspectos dinâmicos dos programas, sem a necessidade de instrumentar o código-fonte das aplicações que estão sendo monitoradas. Com o objetivo de auxiliar o processo de teste de programas orientados a objetos, este trabalho aborda o desenvolvimento de uma ferramenta, a qual automatiza parcialmente o teste de programas escritos em Java. A ferramenta evidencia o teste de estados fazendo uso da tecnologia de reflexão computacional. Através da especificação de asserções, feitas pelo usuário da ferramenta, na forma de invariantes de classe, pré e pós-condições de métodos, é possível verificar a integridade dos estados dos objetos durante a execução do programa em teste. A ferramenta possibilita também, armazenar a seqüência de métodos chamados pelos objetos da aplicação em teste, tornando possível ao testador, visualizar o histórico das interações entre os objetos criados no nível-base.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação trata do desenvolvimento e avaliação de uma ferramenta computacional multimeios utilizada no auxílio ao aprendizado de projetos de experimentos básicos. A busca da sociedade por novos produtos e processos, cada vez melhores e de forma mais rápida, determina a necessidade da aplicação de técnicas mais objetivas e eficientes para se alcançar estes desafios. O trabalho de execução visando contemplar o mencionado anteriormente, procedeu-se da seguinte forma: (i) revisão e descrição dos conceitos relativos à Engenharia da Qualidade e ao Planejamento, Projeto e Análise de Experimentos (PPAE); (ii) identificação e descrição de métodos ou regras de planejamento experimental; (iii) investigação e identificação dos projetos e análises de experimentos considerados básicos; (iv) desenvolvimento de uma ferramenta multimeios para o auxílio ao aprendizado de PPAE; (v) avaliação da ferramenta desenvolvida, através de um estudo de caso; (vi) conclusões relacionadas ao trabalho desenvolvido. A abordagem adotada para apresentar a técnica experimental, destacou o planejamento, do projeto e análise, detalhando separadamente os mesmos. Este passo almejou, de forma objetiva, identificar aqueles projetos e análises básicos, iniciais ao aprendizado. A elaboração e posterior avaliação da ferramenta multimeios permitiu perceber a potencialidade da mesma, como um meio instrucional para o tema específico de projetos de experimentos, sendo sua aplicação de relativa facilidade. A avaliação mostrou ainda que existe muito a se avançar nos meios físicos de apresentação/execução deste tipo de ferramenta multimeios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Teoria das Categorias é uma ramificação da Matemática Pura relativamente recente, tendo sua base sido enunciada ao final da primeira metade do século XX. Embora seja Teoria de grande expressividade, sua aplicação efetiva tem encontrado até o momento grandes obstáculos, todos decorrência natural da brevidade de sua História. A baixa oferta de bibliografia (e predominantemente em língua inglesa) e a falta de uniformidade na exposição do que sejam os tópicos introdutórios convergem e potencializam outro grande empecilho à sua propagação - a baixa oferta de cursos com enfoque em Teoria das Categorias. Consegue, a despeito destes obstáculos, arrebanhar admiradores em inúmeros centros de reconhecida excelência técnica e científica. Dentre todas as áreas do conhecimento, atrai em especial a atenção da Ciência da Computação, por características como independência de implementação, dualidade, herança de resultados, possibilidade de comparação da expressividade de outros formalismos, forte embasamento em notação gráfica e, sobretudo, pela expressividade de suas construções [MEN2001]. No Brasil, já conta com o reconhecimento de seu papel no futuro da Ciência da Computação por parte de instituições como SBC e MEC. Os obstáculos aqui descritos, entretanto, ainda necessitam ser transpostos. O presente trabalho foi desenvolvido visando contribuir nesta tarefa. O projeto consiste em uma iniciativa aplicada em Ciência da Computação, a qual visa oportunizar o franco acesso aos conceitos categoriais introdutórios: uma aplicação de computador que faça amplo uso de representação diagramática para apresentar a proposição de conceitos básicos do grupo de pesquisa em Teoria das Categorias do Instituto de Informática da UFRGS. A proposição e implementação de uma ferramenta, embora não constitua iniciativa inédita no mundo, até onde se sabe é a segunda experiência desta natureza. Ademais, vale destacar que os conceitos tratados, assim como os objetivos visados, são atendidos de forma única e exclusiva por esta aplicação. Conjuntamente, vislumbra-se a aplicação desenvolvida desempenhando importante papel de agente catalisador na propagação da visão dos Grupos de Pesquisa em Teoria das Categorias da UFRGS e da PUC/RJ do que sejam os "conceitos categoriais introdutórios".

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A divisão do processo de planejamento e controle da produção (PCP) em diferentes níveis hierárquicos é um dos mecanismos básicos para lidar com a incerteza. Por outro lado, a falta de integração entre estes níveis é apontada como uma dos obstáculos mais importantes à eficácia deste processo, uma vez que dificulta que as decisões tomadas nos diferentes níveis gerenciais sejam consistentes entre si. Este problema é particularmente importante em empreendimentos de construção, os quais, em função de sua complexidade e da incerteza envolvida, em geral requerem freqüentes modificações nos planos, podendo estas ser consideravelmente trabalhosas. O objetivo geral do presente trabalho consiste em propor diretrizes para a interligação do processo de planejamento e controle nos níveis de longo, médio e curto prazo, através da utilização de pacotes computacionais tradicionais, assim como contribuir para a consolidação e refinamento do modelo de PCP proposto por Formoso et al. (1999). O trabalho realizado foi dividido em três grandes etapas. A primeira delas compreendeu a realização de uma pesquisa bibliográfica. A segunda etapa consistiu no desenvolvimento de dois estudos de caso, realizados em empresas de construção do Estado da Bahia, uma delas atuante nos mercados de obras públicas e a outra em incorporações imobiliárias para a classe média-alta. Por fim, na terceira etapa foram analisados os resultados e propostas as diretrizes para a interligação dos diferentes níveis do PCP Entre as conclusões, pode-se destacar que a eficácia dos planos produzidos em pacotes computacionais depende fortemente da existência de um plano de ataque da obra, o qual deve ser discutido com a gerência da produção e explicitado graficamente, de forma a aumentar a transparência de processos. Quando o plano de longo prazo não é elaborado adequadamente, levando em conta as reais necessidades da gerência de produção, o esforço despendido na realização de alterações tende a ser muito grande, dificultando a utilização deste plano para controle em tempo real. O estudo também sugere um conjunto de indicadores que permitem avaliar o cumprimento de prazo e a aderência entre planos de diferentes níveis gerenciais. Estes indicadores são obtidos com relativa facilidade, a partir da utilização do pacote computacional MSProject. Finalmente, o estudo oferece algumas contribuições relativas a critérios para a definição de pacotes de trabalho, à medida que os planos necessitam serem detalhados nos níveis de médio e curto prazo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento solar operando por termossifão. Neste tipo de sistema o fluido no coletor solar é circulado por convecção natural, que acontece devido à diferença de massa específica da água ao longo circuito. Nestes sistemas a vazão mássica varia ao longo do dia e do ano, dependendo, dentre outros fatores, da irradiância solar absorvida, do perfil de temperaturas da água no sistema, da geometria, do volume e do perfil de demanda de água quente. Para uma avaliação detalhada do comportamento térmico de aquecedores solares operando por termossifão foram realizados ensaios experimentais e cálculos teóricos. Os resultados dos experimentos concordaram com aqueles apresentados na literatura e sua análise fundamentou o desenvolvimento do aplicativo TermoSim, um programa de simulação computacional do comportamento térmico de sistemas de aquecimento de água com energia solar. O tratamento matemático adotado no TermoSim compreende a modelagem dos coletores solares de acordo com a teoria de Hottel-Bliss-Whillier. O reservatório térmico é modelado com estratificação térmica, convecção e condução entre as camadas. A vazão mássica é obtida a partir do balanço da quantidade de movimento no circuito. Os modelos matemáticos empregados na construção do aplicativo TermoSim foram validados através do confronto dos resultados simulados com medidas experimentais. Foi demonstrado que a utilização destes modelos é adequada e permite reproduzir com precisão o comportamento térmico dos coletores solares e do reservatório térmico. Além do programa TermoSim, foi também desenvolvido o programa TermoDim, que é uma ferramenta para o dimensionamento de sistemas de aquecimento solar, que requer apenas o conhecimento dos parâmetros geométricos do sistema, dados meteorológicos em média mensal e informação a respeito do volume de demanda. O TermoDim é apropriado para estimar o desempenho de aquecedores solares operando por termossifão com tanques verticais e horizontais. O método de dimensionamento do TermoDim é baseado na correlação para a eficiência média mensal obtida neste trabalho a partir de um grande número de simulações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.