921 resultados para Extração de Rodovias
Resumo:
A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.
Resumo:
O objetivo deste trabalho foi estudar o comportamento em fadiga de um gancho reduzido do tipo empregado como conector/desconector para plataformas flutuantes de extração de petróleo. Ganchos são componentes mecânicos muito utilizados em aplicações industriais e dimensionados segundo os critérios da mecânica estática. A sua utilização em estruturas offshore é recente e requer a avaliação de seu desempenho em fadiga. A influência de tensões residuais compressivas na seção mais solicitada do gancho foi avaliada nos ensaios. Estas tensões foram geradas por um teste de carga que implica em um esforço de tração que ultrapassa o limite elástico do material. A região da superfície do gancho que sofreu deformação plástica fica comprimida pelo restante do material do gancho carregado no regime elástico que tenta retornar. O mesmo efeito é observado na autofretagem de tubos ou shot peening de componentes aeronáuticos. Foram utilizados ganchos DIN 0.12, que apresentam dimensões reduzidas, para a caracterização mecânica através de ensaios de fadiga e a determinação da curva de Wöhler. Esses ensaios envolveram a comparação entre os ganchos que sofreram a carga de pré-teste (com tensões residuais) e os que não sofreram. Também foi avaliada a influência de defeitos de fundição na vida em fadiga dos ganchos. Os ganchos foram caracterizados metalurgicamente através de análise microestrutural e tamanho de grão ASTM utilizando-se Microscopia Óptica e Eletrônica de Varredura. Foram efetuadas medições de tensões residuais através do Método do Furo em ganchos instrumentados com extensômetros resistivos elétricos. As tensões residuais compressivas induzidas pelo teste de carga tiveram grande influência nos testes de fadiga, aumentando a performance dos ganchos e assegurando sua integridade estrutural.
Resumo:
Nos últimos anos, a contabilização do resultado das empresas estatais nos números que medem a necessidade de financiamento do setor público e o estoque da dívida líquida do setor público tem garantido o cumprimento das metas fixadas para o superávit primário mas tem limitado a quantidade de recursos que as empresas do governo podem tomar na forma de empréstimo para fins de investimento. Ao examinarmos o tratamento dado às contas das Empresas Estatais nos acordos do Brasil com o FMI em relação ao estabelecido nos manuais do Fundo, na União Européia e em diplomas legais brasileiros, encontramos discrepância de tratamento, o que nos faz supor que há condições tanto para a inclusão como para a exclusão das contas das Empresas Estatais, não apenas na apuração dos resultados em termos de déficit ou superávit fiscal, mas também no cálculo dos valores da dívida pública. Ao considerarmos os manuais e a legislação brasileira, verificamos a possibilidade de se adotar um tratamento similar ao empregado na União Européia, excluindo essas sociedades das contas de déficit e dívida. Essa dissertação se propõe a discutir o tratamento das contas das empresas estatais produtivas no orçamento do setor público, utilizando como exemplo a Petrobras, e analisar duas possibilidades: a primeira é a exclusão das contas dessas estatais não apenas na apuração dos resultados em termos de déficit ou superávit fiscal, mas também no cálculo dos valores da dívida pública. A segunda possibilidade é que as contas dessas empresas pelo menos sejam retiradas do cálculo do superávit primário. A Petrobras, por exemplo, possui todos os seus investimentos custeados por recursos próprios oriundos da comercialização de seus produtos ou por captação no mercado. Além disso, a Petrobras não recebe qualquer recurso do governo. Pelo contrário, ela contribui significativamente para a receita pública da União, dos estados e dos municípios, por meio do pagamento de impostos, taxas, contribuições, dividendos e royalties pela extração de petróleo e gás natural, sendo a maior contribuinte individual do Brasil, além da economia de divisas proporcionada ao longo de sua história. Pelos motivos acima expostos, sugerimos a exclusão das contas das empresas estatais produtivas das contas de déficit e de dívida do setor público. Caso esta proposta não seja adotada, sugerimos que pelo menos essas empresas sejam excluídas do cálculo do superávit primário do setor público. Neste documento, analisamos o caso da Petrobras, a empresa estatal federal que apresenta as melhores condições para essas propostas.
Resumo:
Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.
Resumo:
A reciclagem com espuma de asfalto realizada na Rodovia BR-290/RS no ano de 2001, entre os km 97 e km 112, pista sentido Porto Alegre, também chamada Pista Sul, foi objeto de estudo nesta dissertação. Este estudo apresenta todas as etapas da reciclagem, desde a elaboração do projeto, as suas considerações, tais como volume de tráfego, clima da região, características funcionais e estruturais do pavimento, execução da camada reciclada, mencionando método de execução e controles adotados e por fim e como foco principal a análise do comportamento da mistura reciclada, compilando dados à época da execução, seis meses e um ano após a execução. Foram aproveitados dois levantamentos deflectométricos um realizado com o FWD(Falling Weight Deflectometer) no mês de dezembro de 2001 e outro realizado no mês de junho de 2002 com a viga eletrônica, também chamada deflectógrafo digital. Através destes levantamentos estimavam-se por retroanálise das bacias de deflexão, utilizando o programa computacional LAYMOD4, os módulos de cada camada do pavimento. Os resultados da reciclagem são satisfatórios. Analisando a camada reciclada isoladamente, comprovam-se várias citações de pesquisadores sobre o tema, tais como: a melhoria das propriedades mecânicas da reciclagem após tempo de cura e a dependência da mistura ao estado de tensões para seu comportamento elástico. Uma avaliação de desempenho foi desenvolvida, com o auxílio do programa PAVESYS9, revelando que o pavimento apresentou boa performance, comprovando mais uma vez, a melhoria no comportamento da camada reciclada com passado tempo de cura, aumentando o módulo de resiliencia e contribuindo menos para o afundamento de trilha de roda.
Resumo:
A escória de aciaria elétrica é um resíduo gerado no processo de fabricação de aço, que apresenta propriedades físicas adequadas quando aplicada em alguns materiais da área de construção civil. Entretanto, possui algumas limitações causadas pela presença de compostos que sofrem reações expansivas quando exposta ao ambiente (óxidos de cálcio e magnésio livres, óxidos de ferro e silicatos de cálcio), provocando rupturas e desintegração dos materiais onde é aplicada. Além disso, quando usada como base e sub-base na construção de estradas, pode ocorrer a formação de tufa (calcário precipitado) causando entupimento de drenos das rodovias. O presente trabalho tem como objetivo avaliar o teor de cal livre em escória de aciaria elétrica utilizando a combinação de um método titulométrico com análise térmica, pois é um dos compostos mais citados pela literatura como responsável pela expansão da escória. Dois métodos titulométricos foram selecionados para determinar o teor de cal livre, onde o primeiro foi desenvolvido para análise em cimento (Método do etilenoglicol) e o segundo foi adaptado para escória de aço (Método de Franke) Os resultados mostraram que o método de Franke, extraído da norma européia EN 1744:1998, foi o mais adequado para determinar cal livre em escórias de aciaria elétrica. A quantidade de cal livre encontrada não permitiu avaliar sua variação ao longo do tempo de exposição, somente considerando os métodos titulométricos. Entretanto, utilizando o método de análise térmica, observou-se um decréscimo no número de reações do primeiro mês de exposição com relação aos meses seguintes, sugerindo uma estabilização das escórias ao longo do tempo. Também, os resultados para cal original (em torno de 1%) sugerem uma potencialidade de formação de tufa. Finalmente, esse estudo mostrou que é fundamental a associação dos métodos titulométrico e de análise térmica para uma adequada avaliação de cal livre em escórias de aciaria elétrica.
Resumo:
Este trabalho mostra que não só a tendência de longo prazo (de 1970 até 1993) dos investimento públicos em infraestrutura como proporção do produto é declinante mas que esta queda vem se acelerando recentemente. Os investimentos em energia reduziram-se em dois terços nos últimos dez anos e estes se concentram quase que inteiramente em duas usinas. Os investimentos em portos e ferrovias estão a níveis que provavelmente não repõem o capital depreciado ( o investimento na malha ferroviária é hoje 10% do que era em 1980). Menos da metade das rodovias federais estão em boas condições e todas evidências indicam que essa situação se estende ao resto da malha rodoviária. A situação do setor de telecomunicações. embora os investimentos em termos absolutos tenham aumentado nos últimos anos, é também precária, o que é evidenciado pela escassez de linhas, o alto preço dos serviços e atraso tecnológico. A conclusão é imediata e também sombria: se esta tendência não for revertida decididamente no próximo governo, seja através de investimentos públicos diretos ou parcerias e/ou vendas para o setor privado. muito provavelmente a taxa de crescimento do produto e da produtividade da economia brasileira encontrará limites rígidos em um futuro bem próximo. O desafio colocado para o próximo governo é de não só recuperar parte da infraestrutura que se encontra deteriorada mas também ampliá-la de forma a fazer frente às necessidades atuais e futuras da economia. Se o poder público possui capacidade financeira para tal empreitada é uma questão em aberto, mas dado o volume de recursos necessários (que a próxima administração calcula ser de 70 bilhões de reais) e a crise financeira e administrativa que o Estado brasileiro enfrenta. as perspectivas nos parecem ruins. Ao nosso entender. sem acelerar os atuais programas de parceria com a iniciativa privada e sem a ampliação do atual programa de desestatização para as áreas de energia. comunicação e transporte dificilmente o Estado conseguirá implementar o amplo programa de investimentos em infraestrutura que o país necessita.
Resumo:
A tecnologia de processos de desenvolvimento de software ´e uma importante área de estudo e pesquisas na Engenharia de Software que envolve a construção de ferramentas e ambientes para modelagem, execução, simulação e evolução de processos de desenvolvimento de software, conhecidos como PSEEs (do inglês: Process-Centered Software Engineering Environments). Um modelo de processo de software é uma estrutura complexa que relaciona elementos gerenciáveis (i.e. artefatos, agentes, e atividades) que constituem o processo de software. Esta complexidade, geralmente, dificulta a percepção e entendimento do processo por parte dos profissionais envolvidos, principalmente quando estes profissionais têm acesso apenas a uma visão geral do modelo. Desta forma, há necessidade de mecanismos para visualização e acompanhamento dos processos, fornecendo informações adequadas aos diferentes estados, abstraindo as informações relevantes tanto as fases presentes no processo de desenvolvimento quanto ao agente envolvido, além de facilitar a interação e o entendimento humano sobre os elementos do processo. Estudos afirmam que a maneira como são apresentadas as informações do modelo de processo pode influenciar no sucesso ou não do desenvolvimento do software, assim como facilitar a adoção da tecnologia pela indústria de software. Este trabalho visa contribuir nas pesquisas que buscam mecanismos e cientes para a visualização de processos de software apresentando a abordagem APSEE-Monitor destinada ao apoio a visualização de processos de software durante a sua execução. O principal objetivo desta pesquisa é apresentar um modelo formal de apoio a visualização de processos capaz de extrair dados de processos e organizá-los em sub-domínios de informações de interesse do gerente de processos. Neste trabalho aplica-se o conceito de múltiplas perspectivas como uma estratégia viável para a abstração e organização das informações presentes no modelo de processos. A solução proposta destaca-se por estender a definção original de perspectivas e fornecer uma estratégia de extração dos dados através de uma especificação formal utilizando o paradigma PROSOFT-Algébrico. Além disso, o trabalho apresenta um conjunto de requisitos relativos a interação entre gerentes de processos e PSEEs, a definição formal das perspectivas, uma gramática que define a linguagem de consulta aos processos, e um protótipo da aplicação.
Resumo:
Este trabalho propõe um modelo de forma reduzida livre de arbitragem para a extração de probabilidades de default a partir de spreads de Swaps de Crédito e aplica-o realizando uma análise da percepção de risco da dívida soberana brasileira confrontando dois momentos com contextos econômicos distintos. É utilizada uma modelagem paramétrica da estrutura temporal das probabilidades condicionais de default para a qual se testa duas formas funcionais distintas: Constante por Partes e Linear por Partes. Os resultados fornecem evidências que corroboram a aplicabilidade do modelo e indicam uma clara vantagem da modelagem Linear por Partes, por se ajustar melhor aos dados e possuir implicações convenientes na estrutura a termo das taxas de juros ajustadas ao risco de default.
Resumo:
Este trabalho é um estudo sobre agentes inteligentes e suas aplicações na Internet. São apresentados e comparados alguns exemplos de software com funcionalidades para extrair, selecionar e auxiliar no consumo de informações da Internet, com base no perfil de interesse de cada usuário. O objetivo principal deste trabalho é a proposição de um modelo geral e amplo de agente para a obtenção e manutenção de um repositório de links para documentos que satisfaçam o interesse de um ou mais usuários. O modelo proposto baseia-se na obtenção do perfil do usuário a partir de documentos indicados como modelos positivos ou negativos. O ponto forte do modelo são os módulos responsáveis pela extração de informações da Internet, seleção quanto a importância e armazenamento em banco de dados das URLs obtidas, classificadas quanto a usuário, categoria de assunto e assunto. Além disso, o modelo prevê a realização de freqüentes verificações de integridade e pertinência dos links armazenados no repositório. Com base no modelo proposto foi implementado um protótipo parcial. Tal protótipo contempla os módulos responsáveis pela obtenção de informações, seleção das informações pertinentes e classificação e armazenamento dos links de acordo com o assunto. Finalmente, o protótipo implementado permaneceu em execução por um determinado período, gerando alguns resultados preliminares que viabilizaram uma avaliação do modelo.
Resumo:
As ataxias espinocerebelares (SCAs) constituem um grupo de doenças neurodegenerativas fatais que apresentam uma grande heterogeneidade clínica. A doença de Machado-Joseph (DMJ), ou ataxia espinocerebelar tipo 3 (SCA3), é causada por uma expansão de uma seqüência repetitiva CAG em um gene, denominado MJD1, localizado no braço longo do cromossomo 14, expansão codificadora de uma seqüência poliglutamínica constituinte da proteína ataxina 3. Indivíduos normais apresentam entre 12 a 41 repetições, enquanto indivíduos afetados apresentam 61 a 84 repetições CAGs neste gene. Este trabalho teve como objetivos principais a padronização de metodologias moleculares para o identificação e a quantificação do número de repetições CAG no gene responsável pela da DMJ. Um grupo de 112 pacientes, pertencentes a 77 famílias, com suspeita clínica de algum tipo de ataxia espinocerebelar foi avaliado no Hospital de Clínicas de Porto Alegre. Após a extração de DNA destes pacientes, este material foi amplificado por PCR utilizando oligonucleotídeos iniciadores específicos para a região de interesse e posterior transferência destes fragmentos (1) para uma membrana de nylon pelo método de Southern blot, visando ao estabelecimento de um protocolo não-radioativo para detectar a presença do alelo normal e/ou mutante; e (2) análise em gel de poliacrilamida para quantificação do número de repetições presentes no alelo mutante. As análises laboratoriais identificaram um total de 77 pacientes com uma expansão CAG no gene da MJD1. Considerando-se apenas indivíduos não relacionados, a freqüência encontrada foi de 61% (47 indivíduos). Os protocolos estabelecidos demonstraram-se bastante eficazes e sensíveis para o diagnóstico da DMJ e quantificação do alelo expandido da respectiva doença.
Resumo:
O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.
Resumo:
Este trabalho é devotado à avaliação do risco de tráfego em concessões de infra-estruturas rodoviárias. Apresenta as principais causas de discrepâncias entre previsões e a realidade do tráfego em concessões de infra-estruturas rodoviárias, abordando as conseqüências dessas diferenças e os meios propostos e/ou utilizados para a reduzir os riscos proporcionados aos concessionários pelas incertezas inerentes ao tráfego. Dentre os principais meios encontrados para minimizar os efeitos do risco de tráfego aos concessionários encontra-se a utilização de mecanismos de concessão baseado em contratos com prazo variável. Dois mecanismos têm sido desenvolvidos com este objetivo e foram avaliados neste trabalho: LPVR, proposto por Engel, Fischer e Galetovic e implantado no Chile em meados da década de 1990; e LPVNR, proposto por Nombela e De Rus a partir do final da mesma década. A avaliação dos mecanismos foi realizada com um método quantitativo de análise de riscos, utilizando simulação Monte Carlo. Para a realização da avaliação, foi desenvolvido um modelo financeiro que propiciasse análises de projetos com duração não definida ex-ante. 81 simulações foram realizadas, sendo 27 para cada um dos três tipos de concessão de rodovias testados: BOT, ROT e concessões para a operação e manutenção (O&M). As variáveis utilizadas nos testes foram: as taxas de desconto utilizadas nos projetos; os horizontes de tempo das concessões (duração esperada); e a extensão máxima que a duração pode ter, além da duração esperada.
Resumo:
Essa dissertação tem como objetivo estudar o modelo de Hart e Moore em um ambiente sem incerteza quando dois países almejam desenhar um contrato para viabilizar um projeto de exploração e fornecimento de certo recurso exaurível. Nesse contexto os agentes devem realizar investimentos específicos de custo afundado. Para determinado nível de investimento, admitimos que o recurso não-renovável seja explorado com custo de extração nulo. Concluímos que mesmo na ausência de incerteza, o first-best não necessariamente será alcançado, dependendo de características exógenas dos projetos de exploração dos países, chamadas de custo natural. Também concluímos que o mecanismo de renegociação, nesse contexto, não resolve o problema de ineficiência dos contratos.
Resumo:
O delineamento na divisão ótima de trabalho entre a esfera pública e privada tem suscitado estudos na moderna organização industrial. Arranjos contratuais na modalidade de parcerias público-privadas (PPP) oferecem uma nova oportunidade para analisar aspectos relacionados a compartilhamento de riscos em projetos de infraestrutura e alinhamento de incentivos. Um dos objetivos das parcerias público-privadas (PPP) é o de viabilizar projetos de infraestrutura através da concessão de algum tipo de apoio governamental, como garantias ou aportes de recursos. Uma das formas de redução de risco é a concessão de garantias de demanda onde o governo indeniza o investidor sempre que sua receita fique abaixo de um piso predeterminado. O presente estudo analisa o caso de limites no comprometimento do governo em projetos de PPP. Limites na ação do governo são indicados porque ao conceder garantias em projetos de infraestrutura privada ou em projetos de PPP o governo assume um passivo contingencial que, na maioria das vezes, não é adequadamente contabilizado nas contas públicas, podendo ainda acarretar ônus excessivo para o governo se os riscos envolvidos não forem adequadamente quantificados e analisados. Embora não impactem o fluxo de caixa hoje, esses passivos podem significar um pesado ônus para a sociedade no futuro. A partir de modelos de precificação de projetos de infraestrutura, baseados na metodologia das opções reais, avalia-se que garantias limitadas, em projetos de PPP, reduzem o risco e aumentam a atratividade de projetos na ótica privada e que um orçamento limitado é uma forma de alinhar incentivos na ótima pública. Considerando a escassez de estudos envolvendo os riscos comerciais associados a projetos de concessão rodoviária e sendo a demanda de tráfego a principal fonte de risco, o estudo combina técnicas matemáticas de interpolação com modelos econométricos de previsão propondo uma ferramenta alternativa para estimar e projetar o volume de tráfego nas rodovias brasileiras. Realiza-se um estudo de caso para trechos da BR-163 no estado de Mato Grosso sob a hipótese de que o volume de tráfego rodoviário depende diretamente da produção escoada pelas rodovias nacionais, e utiliza-se dados de produção agrícola no estado de Mato Grosso como proxy no processo de interpolação. As projeções de tráfego mensais obtidas e inexistentes em frequência regular nas diversas rodovias do país se mostraram consistentes com as previsões de outros estudos, mas possuem a vantagem de possibilitar a realização de previsão mensal e análise de sensibilidade. A principal vantagem do novo modelo é permitir a análise de risco da previsão de tráfego futuro e o intervalo de confiança da previsão.