958 resultados para Economia - Modelos estatísticos
Resumo:
Tese de mestrado em Matemática Aplicada à Economia e Gestão, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
O gerenciamento de riscos climáticos requer informação sobre estados futuros de variáveis climáticas, geralmente representada por funções de distribuição de probabilidade acumulada (FDPA, P(Y?y) ou por sua funções complementares (P(Y>y)), ditas funções probabilidade de exceder (FPE). Uma variedade de métodos estatísticos tem sido utilizada para estimação de FPE, incluindo, modelos de regressão linear múltipla, regressão logística e métodos não paramétricos (MAIA et al, 2007; LO et al, 2008). Apesar de parecer intuitivo que a incerteza associada às estimativas das FPE é fundamental para os tomadores de decisão, esse tipo de informação raramente é fornecido. Modelos estatísticos de previsão baseados em séries históricas da variável de interesse (chuva, temperatura) e de preditores derivados de estados do oceano e da atmosfera (índices climáticos tais como: temperaturas da superfície do mar ? TSM, índice de oscilação sul, IOS, El Nino/Oscilação Sul - ENSO) se constituem em alternativas promissoras para auxílio às tomada de decisão, em escalas locais e regionais. O uso de tais indicadores permite incorporar mudanças de padrão derivadas de mudanças climáticas em modelos estatísticos que utilizam informação histórica. Neste trabalho, mostramos como o Modelo de Regressão de Cox (MRC; COX, 1972), tradicionalmente utilizado para modelagem de tempos de falha, em investigações na área médica e em ciências sociais, pode ser de grande utilidade para avaliação probabilística de riscos climáticos, mesmo para variáveis que não representam tempos de falha tais como chuva, produtividade de culturas, lucros, entre outras. O MRC pode ser utilizado para avaliar a influência de preditores (índices climáticos) sobre riscos de interesse (representados pelas FPE), estimar FPE para combinações específicas de preditores e incertezas associadas além de fornecer informação sobre riscos relativos, de grande valor para tomadores de decisão. Apresentamos dois estudos de caso nos quais o Modelo de Cox foi usado para investigar: a) o efeito do IOS e de um índice derivado de TSM do Pacífico sobre o início da estação chuvosa em Cairns (Austrália) e b) a influência o índice Nino 3.4, derivado de estados da TSM no Pacífico Equatorial sobre o chuva acumulada no período de Março a Junho em Limoeiro do Norte (Ceará, Brasil). O objetivo da apresentação desses estudos é meramente didático, para demonstrar o potencial do método proposto como ferramenta de auxílio à tomada de decisão.
Resumo:
O modelo demanda-controle proposto por Karasek caracteriza as situações de estresse no ambiente laboral que é definido pela alta exigência no trabalho resultante da combinação do efeito da demanda psicológica no trabalho (estressores) e moderadores do estresse, especialmente a capacidade de tomar decisões (controle). Existem diversas formas de operacionalizar a exposição (alta exigência no trabalho) descritas na literatura. No entanto, não há consenso sobre qual a melhor operacionalização. Outra questão negligenciada pela maioria dos autores é a forma funcional da curva exposição-resposta ou não linearidade da associação. Entre os desfechos avaliados em estudos sobre os efeitos do estresse no trabalho, usando o modelo demanda-controle, estão as doenças cardiovasculares, como a hipertensão arterial. Contudo, os resultados relatados parecem conflitantes sobre a associação entre o estresse no trabalho e a hipertensão arterial. Os objetivos deste trabalho são estudar a associação entre o estresse no trabalho e aumento da pressão arterial/hipertensão arterial usando as diferentes formas de operacionalização do estresse no trabalho e avaliar a curva exposição-resposta quanto à linearidade. O trabalho é um estudo seccional desenvolvido na população do Estudo Pró-Saúde que é composta por servidores públicos de uma universidade no Rio de Janeiro. Modelos de regressão usando diferentes distribuições foram usados para estimar a associação entre a alta exigência no trabalho e a pressão arterial/hipertensão arterial. Funções não lineares foram utilizadas para investigar a linearidade da associação entre a exposição e os desfechos. Os resultados sugerem que a relação entre a dimensão controle e a pressão arterial seja não linear. Foram observadas associações significativas entre alta exigência no trabalho e pressão arterial sistólica e diastólica para algumas formas de operacionalização da exposição, quando analisados separadamente. No entanto, quando analisadas de forma conjunta por meio do modelo de resposta bivariada não foi encontrada associação. Também não foi encontrada associação entre a alta exigência no trabalho e hipertensão arterial para nenhuma forma de operacionalização da exposição. Os modelos estatísticos com melhor ajuste foram aqueles em que a exposição foi operacionalizada por meio de quadrantes gerados pela mediana de cada uma das dimensões e de forma dicotômica com termo de interação entre demanda psicológica e controle. Neste estudo estas foram as formas mais adequadas de operacionalização. Os resultados também mostram que a associação entre a dimensão controle e a pressão arterial é não linear. Conclui-se que não há garantia de linearidade da associação entre estresse no trabalho e pressão arterial e que essa associação pode ser influenciada pela forma de operacionalização da exposição e do desfecho ou da estratégia de modelagem.
Resumo:
Esta pesquisa avaliou a situação da tuberculose no Brasil, no período de 2001 a 2003, segundo indicadores do processo de operacionalização do Programa Nacional de Controle de Tuberculose (PNCT), e estimou os efeitos de fatores determinantes da taxa de incidência da doença. Para a avaliação utilizou-se a análise de cluster não-hierárquica, visando agrupar os municípios brasileiros de acordo com a morbidade por tuberculose (TB) e AIDS, e pelo desempenho do PNCT. Estes clusters foram mapeados, comparando-se a distribuição nos municípios, em regiões metropolitanas, municípios prioritários, e segundo o tamanho da população. O qui-quadrado de Pearson foi utilizado para testar associação nas categorias. A modelagem longitudinal multinível foi usada para identificar e estimar os efeitos dos determinantes da doença. Os agregados foram: anos, municípios e regiões metropolitanas. O modelo foi de intercepto e inclinação aleatória. Foram retidas as variáveis capazes de diminuir a variância dos níveis, pois, desta forma, explicam a variabilidade hierárquica da doença. Incluiu-se renda, densidade populacional, proporção de cura, taxa de incidência de AIDS e as grandes regiões brasileiras. A avaliação mostrou que a situação epidemiológica preocupante ocorreu nos municípios com Baixa TB e Alta AIDS, e Alta TB e AIDS. O cluster de Muito baixa TB e AIDS concentrou 50% dos municípios, o que pode configurar problemas de notificação. São 6 clusters de desempenho do programa. Bom e Bom com baixo DOTS predominando nos municípios pequenos, não prioritários e fora das regiões metropolitanas. No desempenho Moderado houve maior proporção de municípios prioritários. Clusters Regular e Fraco concentraram 10% dos municípios, com abandono de tratamento elevado e cura muito baixa. O cluster Muito Fraco caracterizou-se pela falta de dados nos indicadores de desempenho. O modelo multinível identificou a AIDS como fator impactante na tuberculose, anteriormente não encontrado em outros estudos; a interação entre renda e AIDS, e importante contribuição das regiões metropolitanas na distribuição da tuberculose, que se manifesta heterogeneamente nas grandes regiões do país. A análise discriminou municípios, e mostrou não haver associação entre maior morbidade e melhor desempenho do PNCT, retratando inadequação da vigilância à realidade epidemiológica do Brasil. O programa necessita ser reforçado, no sentido de considerar a AIDS ao estabelecer suas estratégias de controle. Ademais, os aspectos de baixa renda da população e densidade populacional, já analisados em diversas pesquisas, também se manifestaram de forma importante nestes resultados.
Resumo:
Em estudos ecológicos é importante entender os processos que determinam a distribuição dos organismos. O estudo da distribuição de animais com alta capacidade de locomoção é um desafio para pesquisadores em todo o mundo. Modelos de uso de habitat são ferramentas poderosas para entender as relações entre animais e o ambiente. Com o desenvolvimento dos Sistemas de Informação Geográfica (SIG ou GIS, em inglês), modelos de uso de habitat são utilizados nas análises de dados ecológicos. Entretanto, modelos de uso de habitat frequentemente sofrem com especificações inapropriadas. Especificamente, o pressuposto de independência, que é importante para modelos estatísticos, pode ser violado quando as observações são coletadas no espaço. A Autocorrelação Espacial (SAC) é um problema em estudos ecológicos e deve ser considerada e corrigida. Nesta tese, modelos generalizados lineares com autovetores espaciais foram usados para investigar o uso de habitat dos cetáceos em relação a variáveis fisiográficas, oceanográficas e antrópicas em Cabo Frio, RJ, Brasil, especificamente: baleia-de-Bryde, Balaenoptera edeni (Capítulo 1); golfinho nariz-de-garrafa, Tursiops truncatus (Capítulo 2); Misticetos e odontocetos em geral (Capítulo 3). A baleia-de-Bryde foi influenciada pela Temperatura Superficial do Mar Minima e Máxima, no qual a faixa de temperatura mais usada pela baleia condiz com a faixa de ocorrência de sardinha-verdadeira, Sardinella brasiliensis, durante a desova (22 a 28C). Para o golfinho nariz-de-garrafa o melhor modelo indicou que estes eram encontrados em Temperatura Superficial do Mar baixas, com alta variabilidade e altas concentrações de clorofila. Tanto misticetos quanto os odontocetos usam em proporções similares as áreas contidas em Unidades de Conservação (UCs) quanto as áreas não são parte de UCs. Os misticetos ocorreram com maior frequência mais afastados da costa, em baixas temperaturas superficiais do mar e com altos valores de variabilidade para a temperatura. Os odontocetos usaram duas áreas preferencialmente: as áreas com as menores profundidades dentro da área de estudo e nas maiores profundidade. Eles usaram também habitats com águas frias e com alta concentração de clorofila. Tanto os misticetos quanto os odontocetos foram encontrados com mais frequência em distâncias de até 5km das embarcações de turismo e mergulho. Identificar habitats críticos para os cetáceos é um primeiro passo crucial em direção a sua conservação
Resumo:
O objetivo deste documento é mostrar o potencial da integração de um sistema de informações geográficas (SIG) com um modelo de probabilidade, usando a distribuição de Poisson, para espacializar variáveis discretas. Modelos estatísticos são ferramentas importantes no estudo de variáveis ambientais, principalmente com a crescente importância da valoração do capital ambiental. A distribuição do Poisson é um bom modelo estatístico para manejo de variáveis discretas, pois mostra seu comportamento. Um passo posterior seria saber como essas variáveis se comportam no espaço, mostrando sua distribuição espacial. Nesse caso, os sistemas de informações geográficas (SIG) são bastante eficientes (Miranda, 2005). Para testar o uso de ambas as ferramentas e mostrar sua eficiência, este trabalho traz uma implementação específica usando uma variável ambiental discreta, secas mensais.
Resumo:
apresentado ao Instituto de Contabilidade e Administração do Porto para a Dissertação de Mestrado para obtenção do grau de Mestre em Contabilidade e Finanças sob orientação do Mestre Adalmiro Álvaro Malheiro de Castro Andrade Pereira
Resumo:
Objectivos: Em doentes com traumatismo crânio-encefálico (TCE), o aumento da duração do pré-internamento (internamento em cuidados agudos hospitalares de outras especialidades, antes da admissão em Medicina Física e de Reabilitação) e do internamento no Serviço de Medicina Física e de Reabilitação pode não justificar a sua inclusão ou manutenção na reabilitação em internamento, podendo esta não ser custo-efectiva comparativamente a modelos em ambulatório. O objectivo principal deste trabalho foi avaliar o impacto da duração do pré-internamento e do internamento em Medicina Física e de Reabilitação nos ganhos de funcionalidade obtidos por doentes com TCE. Material e Métodos: Doentes internados por TCE em Medicina Física e de Reabilitação (MFR) entre 1/1/1996 e 31/12/2010 (pré-amostra n = 79). Critérios de inclusão: TCE; pré-internamento <6 meses; internamento em MFR >7 dias. Critérios de exclusão: défices neurológicos e músculo-esqueléticos antes do TCE; intercorrências que condicionassem o programa de reabilitação. Amostra n = 64. O género, idade e os tempos de pré-internamento e de internamento em MFR são as variáveis independentes. Com base nos registos de entrada e alta em MFR, analisou-se a variação de vários parâmetros funcionais (variáveis dependentes). Aplicaram-se modelos estatísticos lineares generalizados: regressão logística, regressão linear múltipla e regressão ordinal logística, nas variáveis com escalas binária, intervalar ou ordinal, respectivamente. Para testar se houve melhoria após o internamento em MFR, aplicou-se o teste paramétrico t para amostras emparelhadas. Resultados: Género (feminino: 32.81%, masculino: 67.19%); média de idades (34.73±14.64 anos); duração média (pré-internamento: 68.03±36.71 dias, internamento em MFR: 46.55±:29.23 dias). O internamento em MFR conduziu a ganhos estatisticamente significativos (p < 6.54x10-2) em todas as variáveis dependentes. A duração de pré-internamento tem uma influência não linear estatisticamente significativa na duração de internamento em MFR (estimativa DPI: 1.18, estimativa DPI2: -5.92x10-3, p DPI: 9.17x10-3, p DPI2: 1.52x10-2). A redução da duração de pré-internamento está associada a uma evolução mais favorável em 20 variáveis, das quais 10 com influência estatisticamente significativa (p < 0.12). O aumento do tempo de internamento em MFR está significativamente associado a maiores ganhos nas escalas MIF e Barthel (p < 4.31x10-3). Conclusões: A duração de pré-internamento tem uma influência não linear na duração do internamento em MFR e constitui um parâmetro de prognóstico funcional em reabilitação. A sua redução é custo-efectiva na reabilitação do TCE e recomenda-se que seja um factor a considerar na selecção de doentes para a reabilitação em internamento. O programa de reabilitação em internamento gera ganhos significativos de funcionalidade, estando uma duração maior associada a ganhos mais favoráveis.
Resumo:
Dissertação para obtenção do Grau de Doutor em Engenharia Química e Bioquímica, Especialidade em Engenharia Bioquímica
Resumo:
El presente texto está dirigido particularmente a los estudiantes de las especializaciones en Evalución de proyectos, Mercado de capitales y Finanzas, de la Facultad de Economía de la Universidad del Rosario. Redesarrolla para estudiar funciones de varias variables, funciones homogéneas, curvas de nivel, derivadas parciales, elasticidad parcial, optimización con y sin restricción, integrales como cálculo de áreas y antiderivadas y, por último, introducción al álgebra de matrices.
Resumo:
Geralmente, as populações, incluindo aí os setores produtivos, planejam suas atividades pelo conhecimento antecipado das variações tanto da temperatura quanto da precipitação pluvial baseados nos ciclos anuais e sazonais conhecidos. Os benefícios, confiabilidade e utilização das previsões climáticas têm sido objeto de análise e discussão na comunidade científica mundial. O desenvolvimento e aplicação dessas previsões para determinadas partes de áreas extensas, atende, de forma mais satisfatória, aos anseios dos setores produtivos e a sociedade como um todo. O objetivo principal desse trabalho foi identificar regiões dos oceanos Atlântico e Pacífico, cuja Temperatura da Superfície do Mar (TSM) possa ser utilizada como preditor potencial em modelos estatísticos de previsão climática de temperaturas máxima e mínima em regiões homogêneas do Estado do Rio Grande do Sul. Este estudo foi desenvolvido com dados de temperaturas máxima e mínima de 40 estações meteorológicas, do Instituto Nacional de Meteorologia e, da Fundação Estadual de Pesquisas Agropecuárias para o período de 1913 a 1998 e dados de TSM em pontos de grade para o período de 1950 a 1998 do National Center for Environmental Prediction. Num tratamento preliminar dos dados, as séries tiveram suas falhas preenchidas utilizando um método de preenchimento, aqui chamado, de “método das correlações”. Com as séries completas, aplicou-se métodos de agrupamento, determinando 4 regiões homogêneas de temperaturas máxima e mínima para o Estado. Foi feito um estudo climatológico dessas regiões e determinadas as relações das temperaturas médias máxima e mínima, de cada uma com TSM dos Oceanos na grade definida. As regiões determinadas representaram bem a fisiografia do Estado e as regiões preditoras apresentaram correlações significativas tanto com a temperatura máxima, quanto com a mínima. Os meses com maior número de preditores, tanto para as temperatura máxima quanto para mínima, foi agosto e o de menor, julho. Correlações diferentes para regiões homogêneas distintas, justificou a utilização da regionalização neste trabalho.
Resumo:
A quantificação da precipitação é dificultada pela extrema aleatoriedade do fenômeno na natureza. Os métodos convencionais para mensuração da precipitação atuam no sentido de espacializar a precipitação mensurada pontualmente em postos pluviométricos para toda a área de interesse e, desta forma, uma rede com elevado número de postos bem distribuídos em toda a área de interesse é necessária para um resultado satisfatório. No entanto, é notória a escassez de postos pluviométricos e a má distribuição espacial dos poucos existentes, não somente no Brasil, mas em vastas áreas do globo. Neste contexto, as estimativas da precipitação com técnicas de sensoriamento remoto e geoprocessamento pretendem potencializar a utilização dos postos pluviométricos existentes através de uma espacialização baseada em critérios físicos. Além disto, o sensoriamento remoto é a ferramenta mais capaz para gerar estimativas de precipitação nos oceanos e nas vastas áreas continentais desprovidas de qualquer tipo de informação pluviométrica. Neste trabalho investigou-se o emprego de técnicas de sensoriamento remoto e geoprocessamento para estimativas de precipitação no sul do Brasil. Três algoritmos computadorizados foram testados, sendo utilizadas as imagens dos canais 1, 3 e 4 (visível, vapor d’água e infravermelho) do satélite GOES 8 (Geostacionary Operational Environmental Satellite – 8) fornecidas pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais. A área de estudo compreendeu todo o estado do Rio Grande do Sul, onde se utilizaram os dados pluviométricos diários derivados de 142 postos no ano de 1998. Os algoritmos citados buscam identificar as nuvens precipitáveis para construir modelos estatísticos que correlacionem as precipitações diária e decendial observadas em solo com determinadas características físicas das nuvens acumuladas durante o mesmo período de tempo e na mesma posição geográfica de cada pluviômetro considerado. Os critérios de decisão que norteiam os algoritmos foram baseados na temperatura do topo das nuvens (através do infravermelho termal), reflectância no canal visível, características de vizinhança e no plano de temperatura x gradiente de temperatura Os resultados obtidos pelos modelos estatísticos são expressos na forma de mapas de precipitação por intervalo de tempo que podem ser comparados com mapas de precipitação obtidas por meios convencionais.
Resumo:
Esta dissertação apresenta os resultados de uma análise experimental de um pavimento flexível solicitado por um simulador de tráfego linear. A pista experimental (com 20 m de comprimento e 3,5 m de largura) tem uma estrutura representativa de pavimentos existentes no Rio Grande do Sul: camada final de terraplenagem de argila laterítica, sub-base de macadame seco, base de brita graduada, camada de concreto asfáltico de 4 cm trincada e recapeamento, também em CBUQ, de 5 cm. A pista foi dividida em três regiões, sendo que em duas a camada trincada e o recapeamento foram ligados por mantas geotêxteis impregnadas de asfalto. O tráfego foi aplicado ao longo de duas faixas. A Faixa A, com 70 cm de largura, foi ensaiada entre setembro e dezembro de 1999, sendo aplicados cerca de 50.000 ciclos de carga de eixo de 100 kN e mais de 30.000 cargas de eixo de 120 kN. A Faixa B, com 100 cm de largura, foi ensaiada entre maio de 2000 e março de 2001, aplicando-se cerca de 345.000 ciclos de carga de eixo de 100 kN. Ao longo do período de ensaio foram medidas deflexões, bacias de deformação e deformações permanentes (afundamentos nas trilhas de roda e irregularidade longitudinal). Os parâmetros ambientais foram monitorados e mediram-se temperaturas do pavimento em duas profundidades da camada asfáltica. Os resultados do estudo explicitaram a influência marcante da temperatura do pavimento na deformabilidade plástica do concreto asfáltico. O aumento da temperatura e da carga de eixo na Faixa A também resultou em aumento das deflexões, sugerindo o início da fase de fadiga. Esse comportamento não foi observado na Faixa B, na qual o tráfego ocorreu em condições de temperatura controlada Não se observou reflexão de trincas, sequer na região sem camada intermediária. Entretanto, a extração de placas mostrou a eficiência do geotêxtil no desvio na direção de propagação das trincas, retardando a reflexão das mesmas através do recapeamento asfáltico. Também se observou que o geotêxtil confinou a fluência do concreto asfáltico na camada de recapeamento, evitando danos às camadas inferiores. Finalmente, propõe-se nesta dissertação modelos estatísticos de grande significância que permitem estimar a temperatura no interior do pavimento em função da temperatura do ar e da irradiação solar.