956 resultados para equação de predição
Resumo:
Este trabalho trata basicamente de investigar a estrutura de polarização da cidade de Porto Alegre. É proposto que a cidade constitui um sistema de diferenciação espacial primário, no qual emergem centros de comércio e serviços em espaços-chave da malha urbana - trechos lineares pertencentes às vias estruturadoras - à medida que esta cresce e se consolida, equilibrando permanentemente a equação entre núcleos de concentração e tecidos recorrentes. Os centros são definidos conceitualmente e seu processo formativo é brevemente analisado. Critérios são elencados para sua seleção e inclusão no corpo de estudo. Níveis intermediários de diferenciação interno à categoria das centralidades são então trabalhados, com base na quantificação das características da forma e das propriedades do arranjo espacial e na leitura qualitativa da dinâmica funcional. Finalmente é construído um nível final de diferenciação entre os centros, combinando os atributos espaciais quantificados, as variáveis funcionais e a própria mecânica de relacionamento entre essas duas esferas. O resultado desta combinação é denominado personalidade urbana, a qual é confrontada com um parâmetro definidor do seu caráter e papel no sistema evolutivo da cidade: o Espaço Urbano Espesso. As referências conceituais e metodológicas situam-se no campo dos estudos configuracionais urbanos, especificamente a Sintaxe Espacial, que trata de investigar a realidade urbana a partir do entendimento de que a forma física e os padrões espaciais interferem ou influenciam os demais fenômenos que manifestam-se na cidade.
Resumo:
A energia solar esta sendo cada vez mais utilizada para o aquecimento de água, tanto para o uso industrial, comercial e residencial, apresentando, esta última, um crescimento muito expressivo nos últimos anos, devido às ações de marketing de algumas empresas do setor. Para manter a temperatura da água do reservatório nas condições estabelecidas para o uso é necessário à utilização de uma fonte de energia auxiliar. As duas fontes de energia auxiliar mais empregadas nos sistemas de aquecimento de água por energia solar são a eletricidade e o gás. A escolha do gás como fonte auxiliar de energia, apesar de apresentar um investimento inicial superior ao da energia elétrica, representa um menor custo operacional em longo prazo. Na presente dissertação foram realizadas simulações computacionais para a cidade de Porto Alegre - RS, através do aplicativo TERMOSIM, com a finalidade de analisar o comportamento energético de um sistema de aquecimento de água por energia solar, por circulação natural (termossifão), utilizando como fonte de energia auxiliar o gás. Esta análise foi desenvolvida com a variação de parâmetros construtivos, de parâmetros de utilização e dos parâmetros de qualidade dos materiais e, ainda, com a caracterização dos componentes da instalação. Para a execução do trabalho foram realizadas 3456 simulações. Considerando os resultados obtidos foram elaboradas tabelas e gráficos, por meio dos quais verificou-se a influência do número de coletores, do volume do reservatório, da altura do termostato, da razão de aspecto do reservatório, do consumo de água quente e da qualidade dos coletores sobre a eficiência do sistema. O aplicativo demonstrou coerência nos resultados gerados, motivo pelo qual foi possível identificar, por meio da análise dos mesmos, quais os parâmetros que exercem maior influência no desempenho do sistema de aquecimento de água. Combinando os resultados, foi desenvolvida uma equação para estimar a eficiência média mensal do sistema.
Resumo:
Este trabalho visa o uso da função de Green de valor inicial no ajuste geostrófico e do método Semi-Lagrangeano na integração de um modelo acoplado oceano-atmosfera descrito pelas equações de águas rasas. O ajuste geostrófico é considerado atravées de perturbações na pressão e do vento. No caso de sistemas sem rotação, é discutida a relação da equação hidrostática com ondas longas não-dispersivas. Com rotação, a conservação da vorticidade potencial permite escolher a elevação correspondente a um estado de equilíbrio geostrófico. O sistema de equações de águas rasas é desacoplado em equações de Klein-Gordon com valores iniciais e termos não-homogêneos acoplados. A resposta dinâmica formada pela resposta transiente e a resposta forçada é obtida para uma perturbação inicial da elevação. A ação do vento como forçante nas equações de momento 2D, através do transporte de Eckman, conduz a uma equação de águas rasas forçada. Uma decomposição da resposta forçada é realizada com uma resposta permanente, que satisfaz a equação de Helmholtz , e com o uso da base dinâmica gerada pela resposta impulso. Um modelo hidrodinâmico 3D introduzido por Casulli e governado por equações não-lineares de águas rasas é integrado na vertical para a obtenção de um modelo 2D. Com isto, as condições de contorno devido a tensão do vento e a fricção devido a topografia do fundo, transformam-se em forçantes do modelo. O modelo foi integrado com um método semi-implícito em diferenças finitas, utilizando-se o método Semi-Lagrangeano para a parte advectiva. Simulações simbólicas foram realizadas para o ajuste geostrófico devido a perturbações de duração infinita e finita para a elevação e para o efeito da tensão do vento. Foram realizadas simulações numéricas para variadas geometrias, em particular a Baia de Guanabara e a Lagoa do Patos.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.
Resumo:
O trabalho tem por objetivo validar a influência dos formadores de mercado de ações sobre a liquidez, uma proxy capaz de medir os custos de transação no mercado secundário de ações. O desafio de medir corretamente a liquidez teve trabalhos relevantes desde 1984, e recentemente foi alvo de uma revisão geral que comparou diversas medidas e encontrou alguns ganhadores. A proposta do presente trabalho é a de revisitar estas medidas e selecionar a métrica mais adequada ao mercado Brasileiro. Escolhida a proxy mais significativa, será então avaliada a relevância do formador de mercado na determinação dos custos de transação por meio de uma versão modificada da equação econométrica de Sanvicente (2012). Por fim, este trabalho será relevante para identificar se as empresas devem contratar formadores de mercado para suas ações, com o fim de reduzirem os custos da negociação de suas ações.
Resumo:
A avaliação acurada da função renal através da medida da taxa de filtração glomerular (TFG) é fundamental na rotina clínica, pois é parte decisiva do diagnóstico e terapêutica. A recomendação atual da National Kidney Foundation (NKF) é o uso de equações que incluam a creatinina, idade, gênero e raça. No entanto a acurácia dessas equações tem sido questionada. Desta forma, investigadores ainda buscam um marcador ideal para analisar a função renal. Neste contexto, se encaixam os estudos com a cistatina C, uma substância endógena, que tem sido relatada como um indicador confiável e de fácil execução para esse propósito. A presente dissertação considerou a dosagem de cistatina C e a utilização da equação do MDRD para a avaliação da função renal em indivíduos saudáveis.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Na Argentina e no Uruguai, diversas tentativas de negociação de contratos futuros e de índice de preços de carne bovina foram frustradas ao longo dos anos, tendo os derivativos lançados fracassado, em um curto espaço de tempo, por falta de liquidez. Esse cenário, somado a outras particularidades do mercado físico da carne bovina, torna o gerenciamento de risco de preços um problema para os agentes econômicos que atuam nessa cadeia produtiva. Nesse contexto, emergiu a seguinte questão: a proteção cruzada com contratos futuros de boi gordo brasileiro da Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBovespa) é efetiva para a administração do risco de preços dos novilhos de corte no mercado a vista argentino e uruguaio? Com a finalidade de responder a essa questão, propôs-se a verificar se é possível mitigar o risco da volatilidade de preços no mercado a vista dos novilhos de corte argentinos e uruguaios por meio do cross hedging no mercado futuro do boi gordo brasileiro na BM&FBovespa. Para tanto, foram utilizados modelos estáticos e dinâmicos de estimação da razão de cross hedge ótima e efetividade em mitigação do risco. Os resultados do teste de hipóteses de mitigação do risco permitiram assegurar que são fortes as evidências de efetividade do mercado futuro do boi gordo brasileiro na proteção contra o risco de preços do mercado a vista dos novilhos argentinos e uruguaios. Complementarmente, verificou-se a hipótese de eficiência do mercado futuro. Os resultados apresentaram evidências de um relacionamento estocástico comum no longo prazo entre os preços a vista e futuros, e de eficiência na predição dos preços no curto prazo, o que sugere que os contratos futuros de boi gordo brasileiro da BM&FBovespa permitem uma trava adequada de cotação-preço para os novilhos argentinos e uruguaios no mercado a vista.
Resumo:
Nesta tese realizamos três trabalhos que envolvem diferentes aspectos da espectroscopia resolvida no tempo. No primeiro discutimos brevemente a teoria e as principais técnicas para a caracterização de pulsos curtos. Analisamos detalhamente uma destas técnicas e propusemos modi cações que possibilitaram o barateamento dos custos da montagem e, além disso, introduziram novas características que sanaram alguns problemas que a montagem original apresentava e que também possibilitaram uma melhor caracterização da própria técnica. Descrevemos cuidadosamente as condições que devem ser satisfeitas pela geometria dos feixes e pelos componentes da montagem para obter uma caracterização correta dos pulsos curtos. Também apresentamos o procedimento de calibração do sistema. Pulsos com diferentes tempos e funções de fase foram caracterizados e os resultados foram validados por testes de con abilidade da informação recuperada. O trabalho seguinte foi o estudo da dinâmica molecular em líquidos puros e em misturas através da técnica efeito Kerr óptico resolvido no tempo, que é uma técnica do tipo bombeio e prova não ressonante, usando um sistema laser Ti:Sa ra com pulsos de 170 fs, centrados em 800 nm. As moléculas estudadas foram o dissulfeto de carbono (CS2), benzeno (C6H6), alilbenzeno (C9H10) e o poliestireno (PS). A teoria necessária para descrever os resultados medidos foi desenvolvida no regime temporal. O modelo de Debye para a relaxação difusiva da anisotropia orientacional descreve a componente de tempos longa, acima de um picosegundo. Partindo do Hamiltoniano de interação, desenvolvemos a teoria da função resposta linear, chegando a uma expressão para a relaxação da polarizabilidade anisotrópica, necessária para descrever os tempos curtos (subpicosegundos). Além disso, a passagem para o regime espectral utilizando somente dados experimentais, ou seja, sem a necessidade de levar em conta modelos especí cos, também foi discutida. Os resultados mostram que os tempos difusivos tanto nos líquidos puros quanto nas misturas seguem a equação de Debye-Stokes-Einstein que prevê um aumento deste tempo para viscosidades maiores. Os tempos curtos são analisados em termos da componente não difusiva da resposta espectral associada à dinâmica molecular. As alterações do espectro foram quanti cadas e a explicação para as mudanças observadas foi dada em termos das con gurações estruturais de interação que levam a uma alteração do potencial intermolecular dentro do qual as moléculas executam movimentos libracionais. Por último, investigamos a questão do modelamento de pulsos de luz incoerente. Para isto trabalhamos com um laser de corante banda larga sem elemento de seleção espectral intracavidade. A técnica utilizada foi o espalhamento forçado de luz ao qual foi acoplado um modelador composto por uma grade, uma lente e uma máscara que alterava a função de fase espectral relativa entre os feixes formadores da grade transiente na amostra de interesse. Realizamos uma análise detalhada desta montagem e obtivemos expressões para ajustar os dados medidos. Os resultados mostram que a função de correlação pode ser alterada de forma especí ca através da escolha de determinadas funções de fase espectrais.
Resumo:
Nesta tese estuda-se a Percepção de Adoção de Instrumentos de Mensuração de Resultados de Marketing (PAIMRM) e a sua relação com a Maturidade da Indústria (MI) à qual as empresas pertencem. Seus objetivos gerais são (1) desenvolver e validar uma escala de PAIMRM, e (2) testar um modelo teórico que relacione PAIMRM com MI. Estes objetivos também se desdobram em objetivos secundários: (A) discutir as implicações deste modelo teórico em diferentes estágios de MI e (B) testar um modelo teórico semelhante que relacione PAIMRM e Maturidade da Empresa (ME). Para isto foram utilizados 419 questionários coletados junto a executivos de Marketing de diversas empresas e em diferentes ondas de coleta. Primeiramente uma escala de PAIMRM com 16 itens e 6 dimensões foi desenvolvida e validada utilizando um procedimento que incluiu sete passos: (1) Definição Conceitual do Construto; (2) Geração dos Itens; (3) Validação de Conteúdo; (4) Definição de Dimensões; (5) Análise de Dados; (6) Validade Nomológica; (7) Validade de Grupos Conhecidos. No passo 6, duas hipóteses foram testadas e suportadas por dois modelos de equação estrutural. O primeiro modelo suportou a relação entre PAIMRM e MI (H1), com boa adequação do modelo aos dados, enquanto o segundo suportou a relação entre PAIMRM e ME (H1.b), com razoável adequação do modelo aos dados. No passo 7, três hipóteses foram testadas pela análise de diferenças entre médias e análise de variáveis categorizadas, para três grupos conhecidos: MI baixo, MI médio e MI alto. É comum em indústrias com MI baixo a preocupação pela falta de estrutura, tecnologia e definição de mercado, explicando a expectativa de que a PAIMRM em indústrias não maduras seja baixa. Em estágios intermediários, as empresas que compõem uma indústria passaram por uma “seleção natural” e algumas das questões que definem o modelo de negócios foram respondidas, mas não sistematizada e nem assimilada pelos gestores, fazendo com que o esforço dispendido para avaliar o desempenho empresarial seja maior, o que resultaria em aumento da PAIMRM, explicando a expectativa de que a PAIMRM seja alta em indústrias medianamente maduras. Finalmente, em estágios subsequentes de MI, a consolidação dos modelos de negócios, assimilação de conhecimento advindo de informações anteriormente adquiridas e a relativa diminuição de alterações no ambiente da indústria, reduzem a necessidade de esforço para acompanhar os negócios, supõe-se que PAIMRM seja baixo em indústria maduras. A hipótese de PAIMRM baixo quando MI for baixo (H2.a) foi suportada pelos dois testes, enquanto a hipótese de PAIMRM alto quando MI for médio (H2.b) e PAIMRM baixo quando MI for alto (H2.c) não foram suportadas. Implicações gerenciais incluem específicas decisões de adoção de instrumentos de mensuração de resultados de marketing para cada estágio de MI, uma vez que tais decisões são influenciadas tanto pela maturidade da indústria na qual a empresa está inserida quanto pela própria maturidade da empresa.
Resumo:
Apesar da centralidade e relevância do conceito de Vantagem Competitiva em Administração de Empresas, o tema ainda é fonte de debate quanto ao seu significado, mensuração, manifestação e relação com o desempenho financeiro. Este trabalho contribui com esse debate avançando em vários pontos conceituais, metodológicos e empíricos. Por meio de uma sequência de três artigos, o conceito de vantagem competitiva é revisitado propondo-se novas dimensões, sua existência é quantificada usando um modelo Bayesiano, seu dinamismo caracterizado e, por fim, as novas dimensões propostas são testadas empiricamente. O primeiro artigo contribui teoricamente com a discussão do conceito de vantagem competitiva e sua relação com o desempenho financeiro a partir de uma abordagem de criação de valor econômico. Este artigo traz uma contribuição metodológica ao elaborar um modelo hierárquico Bayesiano bidimensional para medir a existência da vantagem competitiva a partir do desempenho financeiro e uma contribuição conceitual ao propor duas novas dimensões do conceito (momentum e consistência). O segundo artigo aplica o modelo proposto no primeiro a uma base de dados de empresas norte americana, cobrindo o período de 1995 a 2011. Esse artigo traz contribuições empíricas ao quantificar a existência e a dinâmica da vantagem competitiva oferecendo uma topografia do tema no mundo real. Os resultados indicam que a manifestação da vantagem competitiva não é tão rara quanto apontada em estudos anteriores e que o grau de raridade depende fortemente do setor. A implicação para a teoria e para a prática é uma revisão da importância do setor frente às teorias que focam os recursos internos da empresa, como a visão baseada em recursos. Os resultados também demonstram e caracterizam como lucratividade e crescimento são conjuntamente necessários para avaliar a presença da vantagem competitiva e influem na sua dinâmica de forma diferenciada. O terceiro artigo operacionaliza as novas dimensões do conceito de vantagem competitiva propostas no primeiro artigo e testa sua ocorrência e capacidade de prever a mobilidade do estado competitivo numa visão longitudinal. Os resultados indicam que a inclusão das novas dimensões potencializa a predição do status competitivo futuro das empresas.
Resumo:
O objetivo deste trabalho é obter os parâmetros turbulentos para o crescimento da camada limite planetária (CLP), durante a realizaçãoo do experimento Olad (Overland along wind dispersion experiment), conduzido na transição da noite para o dia. Nesta hora a CLP exibe uma altura, geralmente, pequena, disponibilizando pouco volume para a dispersão dos poluentes. Assim, concentrações superficiais elevadas podem ocorrer, atacando materiais, plantas e a saúde da população. Logo, conhecer os parâmetros do crescimneto é de fundamental importância para o correto modelamento da dispersão atmosférica ao amanhecer. A validação dos parâmetros é realizada a partir da solução da equação da difusão-advecção bidimensional, pelo método da GILTT (Generalized Integral Laplace Transform Technique). São empregados coeficientes de difusão turbulenta (problema de fechamento) dependentes da estabilidade atmosférica. As concentrações superficiais tridimensionais são obtidas através do espalhamento lateral da pluma com distribuição gaussiana. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com os dados experimentais. O modelo proposto mostrou-se aceitável em relação aos dados do experimento.
Resumo:
Este artigo calcula a taxa de retorno da educação no Brasil. Diferentemente de outros trabalhos da literatura que calculam a taxa de retorno da educação através da equação de Mincer, este trabalho calcula a Taxa Interna de Retorno (TIR) da educação, atualizando os estudos de Langoni (1974) e Castro (1970). O artigo mostra que as taxas de retorno da educação continuam extremamente elevadas no Brasil. O artigo contribui ainda para a literatura com a aplicação da metodologia da TIR no cálculo da taxa de retorno da pré-escola. Surpreendentemente, a TIR da pré-escola é superior a 15% a.a.
Resumo:
A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.
Resumo:
Esta dissertação de mestrado considera a transferência de calor combinando convecção e radiação térmica no escoamento de gases participantes em dutos de seção circular. Partindo de uma metodologia geral, o trabalho enfoca principalmente os casos típicos de aplicação em geradores de vapor fumotubulares de pequeno e médio porte, em que gases em alta temperatura escoam através de um tubo mantido em temperatura uniforme. O escoamento é turbulento e o perfil de velocidade é plenamente desenvolvido desde a entrada do duto. A temperatura do gás, contudo, é uniforme na entrada, considerando-se a região de desenvolvimento térmico. Duas misturas de gases são tratadas, ambas constituídas por dióxido de carbono, vapor d’água e nitrogênio, correspondendo a produtos típicos da combustão estequiométrica de óleo combustível e metano. As propriedades físicas dos gases são admitidas uniformes em todo o duto e calculadas na temperatura de mistura média, enquanto que as propriedades radiantes são modeladas pela soma-ponderada-de-gases-cinzas. O campo de temperatura do gás é obtido a partir da solução da equação bidimensional da conservação da energia, sendo os termos advectivos discretizados através do método de volumes de controle com a função de interpolação Flux-Spline; as trocas de energia radiantes são avaliadas por meio do método das zonas, onde cada zona de radiação corresponde a um volume de controle. Em um primeiro passo, a metodologia é verificada pela comparação com resultados apresentados na literatura para a transferência de calor envolvendo apenas convecção e combinando convecção com radiação. Em seguida, discutem-se alguns efeitos da inclusão da radiação térmica, por exemplo, no número de Nusselt convectivo e na temperatura de mistura do gás. Finalmente, são propostas correlações para o número de Nusselt total, que leva em conta tanto a radiação quanto a convecção. Essa etapa exige inicialmente uma análise dos grupos adimensionais que governam o processo radiante para redução do número elevado de parâmetros independentes. As correlações, aplicáveis a situações encontradas em geradores de vapor fumotubulares de pequeno e médio porte, são validadas estatisticamente pela comparação com os resultados obtidos pela solução numérica.