135 resultados para Simulação computacional
Resumo:
Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.
Resumo:
A atividade de crédito consiste, em termos financeiros, na entrega de um valor presente mediante uma promessa de pagamento em data futura. Uma vez que se trata de promessa de pagamento, existe a possibilidade de que a mesma não seja cumprida, dando origem ao risco de crédito. Dada a existência desse risco, cabe às instituições que concedem crédito realizar uma análise do proponente, buscando aferir se o mesmo possui condições de cumprir o compromisso assumido. Um dos aspectos a ser levado em consideração nessa análise diz respeito à capacidade de pagamento da empresa, realizada através de projeções do fluxo de caixa da mesma. Com base nisso, o presente trabalho teve por objetivo a construção de um modelo de simulação para avaliar a capacidade de pagamento de empresas em financiamentos de longo prazo. Entende-se que a aplicação de um modelo dessa natureza pode trazer informações adicionais relevantes para o problema em análise. A avaliação do modelo construído, realizada através de consulta a experts no problema de decisão de crédito, aponta que tanto a técnica utilizada quanto o modelo construído mostram-se adequados e aderentes à realidade, propiciando uma maior segurança para a tomada de decisão.
Resumo:
Os materiais compósitos reforçados por fibras apresentam vantagens quando comparados aos materiais de construção mais tradicionais como concreto e aço. Por outro lado, devido ao fato destes materiais serem relativamente recentes no mercado, questões a respeito de sua durabilidade são ainda objeto de discussão e faz-se necessária intensa pesquisa sobre o envelhecimento dos compósitos. Como conseqüência, recentemente têm surgido inúmeros trabalhos à respeito da degradação dos compósitos considerando efeitos como temperatura, oxidação, radiação UV, condições de carregamento, etc. A maioria destas pesquisas, no entanto, são realizadas a nível de material e não são diretamente aplicáveis à situações de projeto. Desta forma, existe grande demanda por novos estudos e dados compatíveis com aplicações estruturais. Neste trabalho apresenta-se um modelo analítico-numérico adequado para, interpretação e aplicação destes dados experimentais em análise e projeto de estrutural. A formulação proposta inclui relações constitutivas elásticas anisotrópicas com envelhecimento, relações constitutivas viscoelásticas anisotrópicas com envelhecimento em termos de variáveis de estado, análise de falhas com critério de degradação ajustado à idade do material e considera-se grandes deslocamentos e pequenas deformações. As diferenças essenciais entre os processos de envelhecimento em endurecimento e amolecimento são descritos juntamente com as relações constitutivas para cada caso. Estas equações são deduzidas na forma adequada para análise numérica via método dos elementos finitos usando uma solução incremental-iterativa com consideração de efeitos pos-críticos. Vários exemplos são apresentados, incluindo análises elásticas, viscoelásticas e de falha com envelhecimento.
Resumo:
Esta tese propõe um modelo para descrever o campo de velocidade do vento originado numa tormenta elétrica. O escoamento descendente que ocorre durante uma tormenta elétrica madura é modelado como um campo de fluxo axial simétrico. A evolução da velocidade do vento com o tempo é considerada por meio de uma função de modulação empírica. As flutuações da velocidade ao redor da velocidade média em evolução são representadas por um processo aleatório do tipo ruído branco em faixa. Todos os parâmetros utilizados no modelo estão relacionados a variáveis meteorológicas, tais como a altura e diâmetro da nuvem cumulonimbus causadora do evento, a diferença de pressão e a distância entre o solo e a base da nuvem. Adicionalmente considera-se que a nuvem é transportada numa direção pré escolhida pelo vento de fundo, que pode ser devido à circulação geral na região ou a um ciclone extra-tropical. O campo de velocidades do vento resulta da superposição de ambos campos. O modelo é validado comparando as velocidades do vento determinadas em eventos simulados, com registros de estações meteorológicas. Adicionalmente, perfis verticais previstos pelo modelo são comparados com vários perfis para tormentas elétricas propostos na literatura. Finalmente, séries de velocidade máximas anuais a altura padrão de 10m foram simuladas para três estações meteorológicas no sul do Brasil, para as quais dados experimentais são conhecidos, em termos do número médio de tormentas elétricas por ano e das funções distribuição de probabilidade que caracterizam o vento de fundo. A comparação com séries de registros máximos existentes é satisfatória, dando credibilidade adicional ao modelo proposto.
Resumo:
O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.
Resumo:
Este trabalho apresenta o modelo de simulação microscópico, STIRO (Simulador de Tráfego Ininterrupto ROdoviário), desenvolvido para representar trechos de rodovias de pista simples em aclives com faixas adicionais para veículos lentos. STIRO foi utilizado permitir para avaliar as condições de tráfego sob diferentes alternativas de projeto e demanda. O comportamento dos veículos é representado pelos modelos de car-following e lane-changing. No STIRO, o modelo de car-following ainda incorpora uma restrição ao desempenho motriz baseado na relação entre massa e potência de cada categoria de veículo. O trabalho apresenta um estudo sobre diferenças entre as velocidades dos veículos pesados e automóveis e as melhorias proporcionadas pela implantação de faixas adicionais. Por fim, foi realizado um projeto de experimentos para determinar o efeito sobre a velocidade média de percurso dos veículos e ocupação média da via causado por fatores como inclinação da rampa, proporção de veículos pesados no fluxo de tráfego, extensão da rampa, e outras variáveis consideradas no modelo STIRO.
Resumo:
O objetivo deste estudo é avaliar o desempenho de recapeamentos asfálticos, aplicados sobre pavimentos severamente trincados, através do acompanhamento da degradação ocorrida em função do tráfego. Foram testados dois tipos de recapeamentos: uma camada de 5,6 cm de espessura, em concreto asfáltico convencional e um tratamento superficial duplo, modificado por polímero SBS. Os recapeamentos asfálticos foram aplicados sobre uma pista experimental já trafegada e realizou-se, artificialmente, um trincamento padronizado buscando reproduzir efeitos similares àqueles provocados pelo fenômeno de fadiga. Utilizou-se a técnica de ensaios acelerados de pavimentos através da utilização de um simulador linear de tráfego, com rodado duplo. A carga de semi-eixo de 50 kN adotada proporcionou a degradação do pavimento três meses de ensaio para cada recapeamento. O monitoramento do pavimento, em termos estruturais e funcionais, fez-se pelo levantamento periódico de deflexões, bacias deflectométricas, afundamentos de trilha de roda e o controle do surgimento de trincas na superfície. Para melhor quantificar e compreender os fenômenos de degradação estrutural, instrumentou-se a pista experimental com sensores (células de tensão total e strain gages) na interface entre pavimento trincado e recapeamentos, obtendo-se tensões e deformações nestes locais, considerados críticos no desempenho de pavimentos recapeados. Durante os períodos de ensaio, foram monitoradas as condições pluviométricas e temperaturas do ar e pavimento. A determinação dos módulos elásticos das camadas das estruturas testadas foi efetuada pela aproximação das bacias obtidas em campo com os dados gerados em uma simulação numérica, através do programa computacional FLAPS. Percebeu-se que, além do tráfego, o trincamento no recapeamento em tratamento superficial foi devido à condição estrutural inicial do pavimento existente, severidade do trincamento artificial incompatível com a espessura desse tipo de restauração e baixas temperaturas. Quanto ao recapeamento em concreto asfáltico, percebeu-se que o maior trincamento surgiu em áreas sem trincas artificiais subjacentes, partindo do fundo da camada asfáltica do pavimento existente, em função da pouca rigidez da camada granular.
Resumo:
Objetivo: métodos antropométricos que quantifiquem as curvas da coluna vertebral e a avaliação postural a fim de realizar investigações epidemiológicas sobre o papel da postura na ocorrência das dores lombares. O propósito do estudo foi avaliar acurácia e reprodutibilidade do Sistema de Avaliação Postural Digitalizado (SAPD) para medir lordose lombar comparando com raio-x. Delineamento: transversal, com amostra consecutiva. Participantes: para medida da acurácia no grupo 1 ( T12,L3,L5) n = 16 e grupo 2 (L1,L3,L5) n= 17. Na reprodutibilidade intra e inter-avaliador n= 80. Principais Medidas: marcadores externos nos processos espinhosos das vértebras T12, L1, L3 e L5. Raio-x de perfil da coluna lombar e foto digital em perfil direito. Medida da lordose lombar no raio-x com métodos de Cobb,Centróide (CLL) e Processos Espinhosos (PE) e com o SAPD. Resultados: grupo 1, correlação entre SAPD e Cobb foi 0,803 (p<0,001), entre SAPD e CLL foi 0,642 (p=0,024), entre SAPD e a medida dos PE a correlação foi 0,917, com R2 = 0,842. No grupo 2, correlação entre SAPD e Cobb foi 0,559 (p=0,020), entre SAPD e CLL de 0,325 (p=0,302), com correlação significativa somente entre SAPD e Cobb. Entre SAPD e PE a correlação foi 0,763, com R2 = 0,583. Para reprodutibilidade interavaliador a correlação foi 0,981 (p < 0,001) e para reprodutibilidade intra-avaliador de 0.978 (p < 0,001) referente às mesmas fotografias. Reprodutibilidade intraavaliador de 0.872 (p < 0.001) e 0.956 (p<0,001) para inter-avaliador referente à fotos diferentes de um mesmo indivíduo com recolocação dos marcadores sobre a pele . Considerações Finais: O SAPD mostrou-se acurado e reprodutível para a medida da lordose lombar.
Resumo:
Neste trabalho e apresentado um avanço na tecnica GILTT(Generalized Integral and Laplace Transform Technique) solucionando analiticamente um sistema de EDO's(Equações Diferenciais Ordinarias) de segunda ordem resultante da transformação pela GITT(Generalized Integral Transform Technique). Este tipo de problema usualmente aparece quando esta tecnica é aplicada na solução de problemas bidimensionais estacionários. A principal idéia consiste na redução de ordem do problema transformado em outro sistema de EDO's lineares de primeira ordem e a solução analítica deste problema, pela técnica da transformada de Laplace. Como exemplo de aplicação é resolvida a equação da energia linear bidimensional e estacionária. São apresentadas simulações numéricas e comparações com resultados disponíveis na literatura.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
O objetivo deste trabalho foi analisar o processo de ensino-aprendizagem de Física através de abordagens didáticas envolvendo o uso de atividades de simulação e modelagem computacionais em um ambiente de atividade colaborativa presencial. Num primeiro estudo, realizado a partir de uma metodologia quantitativa, avaliou-se o desempenho dos alunos em testes que tinham como tópico a interpretação de gráficos da Cinemática, antes e depois de trabalharem com atividades de simulação e modelagem computacionais em atividades extra-aula. Os resultados deste primeiro estudo mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle, submetidos apenas ao método tradicional de ensino. Na seqüência, foram realizados outros dois estudos dentro de uma metodologia qualitativa, em que o foco estava no processo de ensino-aprendizagem que ocorre em ambiente de sala de aula. Foi utilizada uma abordagem que envolveu, além das atividades computacionais, um método colaborativo presencial como dinâmica de base para o estabelecimento das relações interpessoais entre o professor e a turma, e os alunos entre si.A fundamentação teórica adotada esteve baseada na teoria de Ausubel sobre aprendizagem significativa e na teoria de Vygotsky sobre interação social. O referencial de Halloun sobre modelagem esquemática também foi utilizado. Os resultados sugerem que as atividades de simulação e modelagem computacionais são potencialmente facilitadoras de aprendizagem significativa em Física. Sugerem, também, que a atividade colaborativa presencial contribui positivamente para esse tipo de aprendizagem.
Resumo:
Neste trabalho é desenvolvida uma metodologia de projeto para identificar as regiões críticas da estrutura de um reboque de linha leve sendo tracionado em pavimentos do tipo rodovia de baixa qualidade e estrada secundária de muito baixa qualidade. Para tanto, são levantados alguns dados experimentais da estrutura, necessários para a aproximação e simulação dinâmica de um modelo simplificado. A excitação da base é realizada por atuadores que simulam as oscilações verticais de um perfil de estrada, a qual é definida de acordo com os estudos realizados por Dodds e Robson (1973). Isto permite a determinação de um histórico de carregamentos das regiões da estrutura do chassi sob a ação das molas da suspensão. Em seguida, é gerado um modelo estrutural simplificado do reboque em elementos finitos, chamado de global, no qual são determinadas as regiões sob ação das maiores tensões. Tendo identificada a região mais crítica da estrutura, é criado um modelo local desta parte, onde se pode observar a distribuição de tensões com mais detalhe, permitindo a identificação dos pontos de concentração de tensões. Desta forma, com a aplicação do método de análise global-local é possível a obtenção de resultados detalhados quanto aos esforços da estrutura com um menor custo computacional.
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
A simulação, como ferramenta de suporte à tomada de decisão, tem sido utilizada nas mais variadas áreas do conhecimento e especialmente no projeto e dimensionamento de plantas de produção. Em geral, os simuladores para sistemas de produção consideram variáveis relativas à quantidade, tipo e disposição física de máquinas, quantidades dos estoques intermediários, e aos tempos de produção sem, no entanto, considerar os tempos reais do trabalho do ser humano envolvido no processo, apesar de a mão de obra humana ser largamente empregada nestes sistemas, afetando diretamente a sua produtividade. Uma das possíveis razões disto é a complexidade dos fatores que influenciam na produtividade do ser humano, que varia em função de fatores ambientais, fisiológicos, psicológicos ou sociais. Normalmente, os sistemas de simulação da produção representam o trabalhador humano da mesma forma como representam uma máquina, uma ferramenta ou um equipamento, cuja previsibilidade é bem maior. Esta dissertação avalia a questão humana em um simulador bastante utilizado comercialmente, e evidenciou que os fatores ergonômicos são capazes de alterar significativamente os resultados de uma simulação, justificando o desenvolvimento de rotinas computacionais capazes de representar o elemento humano e suas interações com o sistema, de forma mais fidedigna.
Resumo:
Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.