419 resultados para Calibração radiométrica
Resumo:
O objectivo deste trabalho foi o desenvolvimento e validação de uma metodologia analítica para a determinação de clorpromazina em sangue total, tendo a protriptilina sido usada como padrão interno. A extracção e purificação dos analitos foi efectuada por extracção em fase sólida com colunas Oasis® HLB, e análise posterior por cromatografia gasosa com detector de espectrometria de massa de impacto electrónico (GC/EI-MS). Para a preparação das curvas de calibração foram fortificadas diariamente amostras de sangue branco com concentrações crescentes de clorpromazina entre 0,01 e 5 µg/mL. Foi utilizado um modelo de regressão linear, sendo os coeficientes de correlação superiores a 0,998. Os coeficientes de variação e os erros relativos foram respectivamente inferiores a 12 e 13%, cumprindo assim critérios internacionalmente aceites para a validação de métodos bioanalíticos. Foram também estudados os limites de detecção e quantificação, sendo de 3 e 10 ng/mL respectivamente. A interferência de outras substâncias foi excluída por análise de dez amostras brancas de sangue. O rendimento médio do método foi de 81%. Em virtude da sua simplicidade e rapidez, este método pode ser aplicado na determinação deste antipsicótico em amostras de sangue total, sendo adequado para análises de rotina no âmbito da toxicologia clínica e forense.
Resumo:
Este trabalho apresenta um sistema microcontrolado para aquisição dinâmica de sinais. O sistema possui condicionadores analógicos para três canais de entrada, possibilitando a leitura de sinais diferenciais provenientes de transdutores ligados em ponte de Wheatstone. Estes condicionadores provêem tensão de excitação AC, com portadora de 5 kHz. A parte digital do sistema baseia-se no microcontrolador Intel 80C196. Apresenta interface com o usuário através de teclado e mostrador de cristal líquido. A taxa de aquisição é de 1000 amostras/s e o armazenamento dos dados é feito em memória Flash de 4 Mbits. Também possibilita comunicação digital serial com um microcomputador tipo PC para análise e tratamento dos dados adquiridos. Um protótipo do equipamento foi montado interligando as partes analógica e digital. Para a calibração dos condicionadores de sinais foi adotado o procedimento de calibração estática, tendo como referência uma unidade de calibração resistiva padrão. Foi determinado o comportamento dos condicionadores através de ensaios dinâmicos, sendo apresentados gráficos de resposta em amplitude e fase em função da freqüência do sinal de entrada. Os dados resultantes de ensaios estáticos e dinâmicos foram adquiridos por um osciloscópio digital e pelo sistema de aquisição desenvolvido. São mostrados gráficos comparativos dos sinais obtidos com ambos os equipamentos.
Resumo:
Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.
Resumo:
O comportamento hidrológico de grandes bacias envolve a integração da variabilidade espacial e temporal de um grande número de processos. No passado, o desenvolvimento de modelos matemáticos precipitação – vazão, para representar este comportamento de forma simplificada, permitiu dar resposta às questões básicas de engenharia. No entanto, estes modelos não permitiram avaliar os efeitos de modificações de uso do solo e a variabilidade da resposta em grandes bacias. Este trabalho apresenta o desenvolvimento e a validação de um modelo hidrológico distribuído utilizado para representar os processos de transformação de chuva em vazão em grandes bacias hidrográficas (maiores do que 10.000 km2). Uma grade regular de células de algumas dezenas ou centenas de km2 é utilizada pelo modelo para representar os processos de balanço de água no solo; evapotranspiração; escoamentos: superficial, sub-superficial e subterrâneo na célula; e o escoamento na rede de drenagem em toda a bacia hidrográfica. A variabilidade espacial é representada pela distribuição das características da bacia em células regulares ao longo de toda a bacia, e pela heterogeneidade das características no interior de cada célula. O modelo foi aplicado na bacia do rio Taquari Antas, no Rio Grande do Sul, na bacia do rio Taquari, no Mato Grosso do Sul, e na bacia do rio Uruguai, entre Rio Grande do Sul e Santa Catarina. O tamanho destas bacias variou entre, aproximadamente, 30.000 km2 e 75.000 km2. Os parâmetros do modelo foram calibrados de forma manual e automática, utilizando uma metodologia de calibração automática multi-objetivo baseada em um algoritmo genético. O modelo foi validado pela aplicação em períodos de verificação diferentes do período de calibração, em postos fluviométricos não considerados na calibração e pela aplicação em bacias próximas entre si, com características físicas semelhantes. Os resultados são bons, considerando a capacidade do modelo de reproduzir os hidrogramas observados, porém indicam que novas fontes de dados, como os fluxos de evapotranspiração para diferentes coberturas vegetais, serão necessários para a plena utilização do modelo na análise de mudanças de uso do solo.
Resumo:
Neste trabalho é apresentado um método para medição de deslocamentos sem contato, utilizando sensores magnetoresistivos, os quais são sensibilizados pela variação do campo magnético produzido por um imã permanente em deslocamento no espaço. Os sensores magnetoresistivos possuem, internamente, uma ponte de Wheathestone, onde a resistência varia conforme varia o campo magnético, de modo que o circuito mais indicado para este caso é um amplificador e um filtro para cada sensor. O principal objetivo do trabalho é a obtenção de uma técnica para medir deslocamentos sem contato, e estender os resultados para medida de movimentos mandibulares. A montagem consiste de duas placas de celeron, distantes 30mm uma da outra e unidas por parafusos de polietileno. Em cada uma destas placas foram dispostos quatro sensores, num total de oito, sendo que para cada um deles existe um circuito de amplificação e filtragem do sinal de saída. Sob uma chapa de alumínio foi fixado este equipamento e uma mesa de calibração em 3D, a qual, após a obtenção da matriz de calibração, foi substituída por um emulador de movimento mandibular. Os parâmetros do modelo foram estimados através do método dos mínimos quadrados com auxílio do software Matlab, Release 12. Este software também foi utilizado para o sistema de aquisição de dados durante a realização dos experimentos. A imprecisão dos resultados obtidos na determinação dos deslocamentos, está na ordem de décimos de milímetros. O trabalho apresenta, também, o mapeamento do campo magnético do magneto utilizado nos experimentos através do software FEM2000 – Método de elementos finitos aplicado ao eletromagnetismo.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
O presente trabalho discute os terraços lagunares da margem leste da Laguna dos Patos, localizados próximo à cidade de Mostardas. Através desse estudo é apresentado um novo modelo evolutivo para os últimos 5.000 anos no Litoral Médio do Rio Grande do Sul. Novas ferramentas foram utilizadas pela primeira vez no estudo da planície costeira do Rio Grande do Sul. Com respeito a aquisição dos dados de subsuperfície foi utilizado com êxito um GPR (Ground Penetretion Radar). Na análise e interpretação dos dados foi feita uma tentativa de aplicação da estratigrafia de seqüências. Através do uso de um scanner foram elaborados perfis dos testemunhos de sondagem, identificando aspectos distintos na composição e porosidade de diferentes litologias. Outras ferramentas utilizadas constam de sensoriamento remoto, nivelamento altimétrico e batimétrico, vibracore e datação radiométrica. Dessa forma, foram definidas três feições de terraceamento lagunar de idade holocênica na área de estudo, cada uma relacionada a um nível lagunar distinto. Através dos dados obtidos em subsuperfície foi possível traçar um esboço cronoestratigráfico, bem como uma curva de variação relativa do nível lagunar para a região. Também, como resultado dos dados geológicos de superfície, associados a novas interpretações baseadas em fotografias aéreas e imagens de satélite, foi elaborado um mapa geológico atualizado.
Resumo:
Testes de toxicidade crônica, analisando a inibição de crescimento algáceo após 96 horas, foram realizados a fim de conhecer a sensibilidade de Raphidocelis subcapitata (conhecida como Selenastrum capricornutum), ao sulfato de cobre (CuSO4.5H2O) e do sulfato de zinco (ZnSO4.7H2O). A inibição do crescimento algal seguiu uma tendência exponencial negativa em função do aumento de concentração das duas substâncias, sendo descrita através das seguintes equações: y = 6257208,7. e-5,581.Cu; y = 7003223,1. e- 5,452.Zn; onde y é o número de células de R. subcapitata após 96 horas de exposição a diferentes concentrações de sulfato de cobre e sulfato de zinco, respectivamente. Valores de CE(I)50 demonstraram maior sensibilidade de R. subcapitata ao sulfato de cobre (CE(I)50;96h=0,154 mg.L-1) quando comparada com sulfato de zinco (CE(I)50;96h=0,215 mg.L-1). A densidade algácea foi determinada através de contagem celular e por técnica espectrofotométrica. Foi obtida uma curva de calibração para estimativa de densidade algácea correlacionando valores de absorbância e número de células por contagem, em 684 nm. A curva foi determinada através de um modelo empírico: y = 7,2578.10-8 . x1,0219 (n=130; r2=0,9998); onde y é a medida de absorbância e x é o número de células. A análise de resíduos demonstrou que a equação pode ser utilizada até a densidades de 5.000.000 de células e valores de absorbância até 0,5.
Resumo:
Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.
Resumo:
O objetivo deste trabalho é analisar o impacto de imperfeições no mercado de crédito sobre a transmissão da política monetária no Brasil. Para tanto, utilizou-se o modelo de Bernanke, Gertler e Gilchrist (1999), no qual o canal do crédito ocorre via balanço patrimonial das empresas. Os resultados encontrados, a partir da calibração e simulação do modelo, apontam para a existência do chamado “acelerador financeiro'' na economia brasileira, bem como para possíveis alterações na dinâmica da economia com a implementação de reformas de ordem microeconômica, recentemente adotadas no Brasil.
Resumo:
O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.
Resumo:
Nesta dissertação desenvolve-se um equipamento de compressão confinada com medição de tensão lateral e avalia-se o comportamento, sobre a trajetória de tensões Ko, de um solo e de misturas de solo-fibra e solo-cimento, considerando a influência da adição de fibras de diferentes comprimentos e de cimento em variadas quantidades ao solo estudado bem como o efeito da tensão de cura e índice de vazios de cura na trajetória de tensões Ko, na tensão lateral, nas deformações verticais e nos valores de Ko. O solo utilizado no estudo é uma areia fina de granulometria uniforme extraída de uma jazida localizada no município de Osório – RS. O trabalho de pesquisa realizado com esses solos tem seu enfoque dividido em duas partes principais: (1) projeto, construção, validação e calibração do equipamento; (2) ensaios de compressão confinada com medição de tensão lateral em amostras de solocimento- fibra com dois comprimentos de fibras (6mm e 12 mm), três teores de cimento (1%, 3% e 7%) e em três diferentes condições de cura (cura sob tensão vertical de 0 kPa, cura sob tensão vertical de 0 kPa com índice de vazios modificado pela aplicação anterior à cura de uma tensão vertical de 500 kPa e cura sob tensão vertical de 500 kPa). Os níveis de tensões aplicados neste trabalho chegam a 3000 kPa. Os resultados mostram que o equipamento de compressão confinada com medição de tensões laterais funciona satisfatoriamente, apresentando dados coerentes e confiáveis A inclusão de fibras, bem como o aumento do comprimento das mesmas, diminui os valores de tensão lateral e de Ko em relação ao material sem reforço. A presença de cimento reduz a tensão lateral e gera uma tensão lateral residual, a qual aumenta com o teor de cimento. Da mesma forma, um acréscimo na rigidez ocorre com o aumento da quantidade de cimento. O efeito da cimentação diminui os valores de Ko e os tornam não mais constantes no carregamento. A alteração das condições de cura não causa mudanças significativas no que diz respeito às tensões, mas a rigidez inicial é aumentada com a mudança do índice de vazios e da tensão de cura dos materiais cimentados, sendo o acréscimo maior para a segunda.
Resumo:
Verdelhan (2009) mostra que desejando-se explicar o comporta- mento do prêmio de risco nos mercados de títulos estrangeiros usando- se o modelo de formação externa de hábitos proposto por Campbell e Cochrane (1999) será necessário especi car o retorno livre de risco de equilíbrio de maneira pró-cíclica. Mostramos que esta especi cação só é possível sobre parâmetros de calibração implausíveis. Ainda no processo de calibração, para a maioria dos parâmetros razoáveis, a razão preço-consumo diverge. Entretanto, adotando a sugestão pro- posta por Verdelhan (2009) - de xar a função sensibilidade (st) no seu valor de steady-state durante a calibração e liberá-la apenas du- rante a simulação dos dados para se garantir taxas livre de risco pró- cíclicas - conseguimos encontrar um valor nito e bem comportado para a razão preço-consumo de equilíbrio e replicar o foward premium anom- aly. Desconsiderando possíveis inconsistências deste procedimento, so- bre retornos livres de risco pró-cíclicos, conforme sugerido por Wachter (2006), o modelo utilizado gera curvas de yields reais decrescentes na maturidade, independentemente do estado da economia - resultado que se opõe à literatura subjacente e aos dados reais sobre yields.
Resumo:
Neste trabalho é avaliada a aplicação da técnica de ICP OES (Espectrometria de Emissão com Plasma Indutivamente Acoplado) para a determinação de elementos traço em amostras ambientais. Foram investigados os comportamentos de As, Ba, Cd, Co, Cu, Cr, Mn, Ni, Pb, V e Zn, utilizando-se espectrômetro com vista de observação axial/radial do plasma e sistema de detecção baseado em dispositivos de carga acoplada (CCD). No presente estudo, foi avaliado o desempenho dos nebulizadores pneumáticos do tipo concêntrico (Meinhard), “cross flow” e GemCone® acoplados às câmaras de nebulização de duplo passo (Scott) e ciclônica, bem como do nebulizador ultra-sônico para a introdução de amostras no plasma. Investigou-se a robustez do plasma, potência de radiofreqüência (RF), vazão dos gases de nebulização e auxiliar, bem como a altura de observação, para ambas as vistas de observação do plasma. Sob condições otimizadas os limites de detecção (LD), em ng mL-1, para os elementos As, Ba, Cd, Co, Cr, Cu, Mn, Ni, Pb, V e Zn, em solução aquosa de HNO3 5% (v/v), utilizando-se a configuração axial do plasma, foram: 1,1 - 16; 0,002 - 0,32; 0,03 - 1,2; 0,02 - 0,72; 0,03 - 0,82; 0,04 - 3,0; 0,003 - 0,76; 0,08 - 3,8; 0,22 - 8,9; 0,04 - 2,6; e 0,02 - 1,2 respectivamente. Utilizando-se a configuração radial, os LDs (ng mL-1) dos mesmos elementos foram: 10 - 87; 0,01 - 0,91; 0,07 - 3,8; 0,16 - 4,3; 0,13 - 8,1; 0,16 - 4,3; 0,01 - 0,81; 0,43 - 7,6; 1,4 - 37; 0,28 - 6,0 e 0,77 - 9,5 respectivamente. Com relação à nebulização pneumática, os LDs são relativamente mais baixos quando é utilizado o nebulizador concêntrico acoplado à câmara de nebulização ciclônica. LDs ainda melhores são obtidos mediante o uso de nebulização ultra-sônica mas, neste caso, foi observado que o plasma é menos robusto. As metodologias foram desenvolvidas mediante o uso de materiais de referência certificados sendo analisados os seguintes materiais: sedimento marinho (PACS-2/NRCC), folhas de maçã (apple leaves – 1515/NIST) e água (natural water – 1640/NIST), obtendo-se concentrações concordantes com as certificadas, com exceção do Ni em folha de maçã, que não foi detectado utilizando-se a nebulização pneumática e também não pôde ser determinado com exatidão mediante o uso de nebulizador ultra-sônico. Interferências não espectrais observadas na análise de sedimento marinho foram contornadas através da diluição da amostra, ou através da lavagem da câmara de nebulização com solução de HNO3 5% (v/v), por 60 s entre cada ciclo de leitura. Estas interferências não puderam ser contornadas com o uso de padrão interno (PI). A interferência espectral do As sobre o Cd não foi observada fazendo-se a medição do sinal em área de pico, demarcado com somente 3 pontos/pico. Após serem estabelecidas as metodologias de análise, foram analisadas as seguintes amostras não certificadas: água de rio, água subterrânea (poço artesiano), água tratada e de chuva, folhas de eucalipto e bambu, acículas de pinus e infusão de chá preto, sendo possível quantificar baixas concentrações dos elementos investigados, utilizando-se a calibração externa.
Resumo:
Este trabalho avalia o potencial de simuladores de tráfego na estimativa das emissões veiculares. Os simuladores de tráfego em conjunto com modelos de emissões são utilizados para execução de inventários de emissões. Os inventários de emissões são importantes para a avaliação da eficácia das políticas de transporte que visem redução das emissões veiculares. Erros nesta avaliação podem levar à adoção de políticas ineficientes. Por esta razão, é fundamental a compreensão da lógica destes modelos para a correta análise dos resultados gerados. Através de testes de sensibilidade avaliou-se o impacto da variação de três aspectos intrínsecos aos modelos de simulação na quantificação das emissões veiculares: (i) os parâmetros de entrada utilizados para calibração; (ii) a lógica dos modelos de progressão longitudinal; e (iii) o modelo de emissões incorporado ao simulador. Em um estudo de caso, avaliou-se o impacto de uma melhoria de fluxo de tráfego na geração das emissões com o uso de simuladores de tráfego frente às abordagens tradicionais. O trabalho demonstra que a definição dos parâmetros relativos à aceleração, bem como a modelagem adequada da progressão longitudinal dos veículos, possuem papel preponderante na correta quantificação das emissões. Em segundo plano, o grau de sofisticação do modelo de emissões incorporado também exerce influência na magnitude dos resultados. Por fim, o estudo de caso demonstrou a vantagem do uso de micro-simuladores na quantificação das emissões de projetos de melhorias de fluxo de tráfego frente aos métodos tradicionais, ainda que pese a maior dificuldade na calibração de modelos microscópicos.