942 resultados para eddy covariance


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis contributes to the heuristic optimization of the p-median problem and Swedish population redistribution.   The p-median model is the most representative model in the location analysis. When facilities are located to a population geographically distributed in Q demand points, the p-median model systematically considers all the demand points such that each demand point will have an effect on the decision of the location. However, a series of questions arise. How do we measure the distances? Does the number of facilities to be located have a strong impact on the result? What scale of the network is suitable? How good is our solution? We have scrutinized a lot of issues like those. The reason why we are interested in those questions is that there are a lot of uncertainties in the solutions. We cannot guarantee our solution is good enough for making decisions. The technique of heuristic optimization is formulated in the thesis.   Swedish population redistribution is examined by a spatio-temporal covariance model. A descriptive analysis is not always enough to describe the moving effects from the neighbouring population. A correlation or a covariance analysis is more explicit to show the tendencies. Similarly, the optimization technique of the parameter estimation is required and is executed in the frame of statistical modeling. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this research the 3DVAR data assimilation scheme is implemented in the numerical model DIVAST in order to optimize the performance of the numerical model by selecting an appropriate turbulence scheme and tuning its parameters. Two turbulence closure schemes: the Prandtl mixing length model and the two-equation k-ε model were incorporated into DIVAST and examined with respect to their universality of application, complexity of solutions, computational efficiency and numerical stability. A square harbour with one symmetrical entrance subject to tide-induced flows was selected to investigate the structure of turbulent flows. The experimental part of the research was conducted in a tidal basin. A significant advantage of such laboratory experiment is a fully controlled environment where domain setup and forcing are user-defined. The research shows that the Prandtl mixing length model and the two-equation k-ε model, with default parameterization predefined according to literature recommendations, overestimate eddy viscosity which in turn results in a significant underestimation of velocity magnitudes in the harbour. The data assimilation of the model-predicted velocity and laboratory observations significantly improves model predictions for both turbulence models by adjusting modelled flows in the harbour to match de-errored observations. 3DVAR allows also to identify and quantify shortcomings of the numerical model. Such comprehensive analysis gives an optimal solution based on which numerical model parameters can be estimated. The process of turbulence model optimization by reparameterization and tuning towards optimal state led to new constants that may be potentially applied to complex turbulent flows, such as rapidly developing flows or recirculating flows.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Avaliar os efeitos de um programa de exercício aeróbio sobre o condicionamento cardiorrespiratório em gestantes hígidas, de baixo risco, com sobrepeso. Métodos: 92 mulheres gestantes com sobrepeso (índice de massa corporal 26-31kg/m2), idade ≥ 20 anos, idade gestacional ≤ 20 semanas, com ausência de diabetes e hipertensão, foram alocadas aleatoriamente para realizar exercício aeróbio três vezes por semana com uma hora de duração ou para realizar sessões de relaxamento no grupo controle. Foram realizados dois testes de exercício submáximo em esteira, utilizando protocolo de rampa na entrada do estudo e outro teste após 12 semanas. Resultados: Em teste de exercício submáximo 12 semanas após randomização, o consumo de oxigênio (VO2) no limiar anaeróbio aumentou 17% (± 3) no grupo intervenção enquanto reduziu 16% (± 3) no grupo controle, de modo que após 12 semanas de exercício ajustado através da análise de covariância pelo o VO2 no limiar na linha de base, idade gestacional e idade materna foi de 2,68ml/kg/min (IC 95% 1,32-4,03) maior, P = 0,002. Conclusão: Exercício aeróbio realizado em gestantes com sobrepeso produz um aumento no limiar anaeróbio, sobrepondo os efeitos negativos da gestação sobre o condicionamento cardiorrespiratório em mulheres com estilo de vida sedentário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma modelagem detalhada de processos de combustao turbulentos para um jato concentrico de combustıvel e ar. A modelagem é fundamentada nas equacões de conservacão de massa, de quantidade de movimento, de energia e de espécies quımicas. A turbulencia é resolvida pela utilizacão do modelo k- padrão. Dois modelos de reacões quımicas são apresentados. O modelo SCRS – Simple Chemically-Reacting Systems, que assume taxas instantâneas de reacões quımicas. Também é abordado o modelo E-A – Eddy Breakup - Arrhenius, que assume taxas finitas de reacões quımicas. A radiacão térmica, fenômeno de grande importância devido as altas temperaturas alcancadas em processos de combustão,é modelada através do Método das Zonas. O modelo da soma ponderada de gases cinzas – WSGGM,é usado para determinar o espectro de emissão e absorcão dos gases no processo. Para a solucão destas equacões diferenciais, juntamente com os modelos de turbulência, de reaçõoes químicas e radiação térmica, faz-se o uso do Método dos Volumes Finitos. Para validar a modelagem apresentada resolve-se o processo de combustão em uma câmara cilíndrica. A câmara de combustão usada áa mesma abordada no First Workshop on Aerodynamics of Steady State Combustion Chambers and Furnaces, organizado pela ERCORTAC - European Research Community On Flow Turbulence And Combustion, em outubro de 1994, que apresenta dados experimentais de temperatura e concentração das espécies químicas para várias posições de interesse no interior da câmara. Utiliza-se o gás natural como combustível e o ar atmosférico como oxidante. O processo de combustão sem pré-mistura é resolvido para a condição de excesso de combustível de 5 % para ambos os modelos, onde o gás natural é injetado por um duto circular central, e o ar atmosférico por um orifício anular externo a esse duto, no mesmo plano Uma reação química não estagiada é assumida para o modelo SCRS. Para o modelo E-A duas situações são resolvidas: combustão não estagiada, com uma etapa global de reação química; e reação quımica estagiada, com duas etapas globais. Os resultados obtidos com o modelo SCRS para a distribuição de temperaturas, em termos de tendências gerais, são razoáveis. Já as concentrações de espécies químicas não apresentam dados satisfatórios para este modelo. Para o modelo E-A os resultados apresentam boa concordância com os dados experimentais, principalmente para a situação em que o processo de combustão é assumido em duas etapas globais. ´E analisado em detalhe o papel desempenhado pela transferencia de calor por radiacao, com meio participante. Para melhor verificar as trocas de calor, assume-se uma camara de combustao cilındrica com paredes d’agua. A injecao do combustıvel e do oxidante e feita atraves de um queimador central, semelhante ao usado para validar a modelagem, porem com dois orifıcios concentricos para injecao de combustıvel. Nesta situação o efeito do turbilhonamento (swril), assumido como 20 % da velocidade axial de entrada, sobre a injecao de ar e computado atraves da condicao contorno da equacao de conservacao da quantidade de movimento angular. Nesta fase apenas o modelo E-A, com duas etapas globais de reacoes quımicas, e considerado, ja que o mesmo apresenta os melhores resultados. O processo de combustao e simulado com e sem a presenca da radiacao termica. Verifica-se que a presenca da radiacao termica homogeneiza a temperatura dos gases no interior da camara. Com isso verifica-se tambem alterações nas taxas de reacoes quımicas, modificando a magnitude das fracoes das especies quımicas Quando a radiacao termica e considerada efeitos de extinção local da chama sao verificados nas regioes de temperaturas mais altas, diminuindo o consumo de oxigenio e aumentando a producao de monoxido de carbono, caracterizando assim uma combustao incompleta. Em algumas situacoes tem-se uma variacao de temperatura de ate 500 K, a montante da chama. A radiacao termica tambem aumenta a taxa de transferencia de calor dos gases quentes para as paredes da camara, e desta para o seu exterior. Com os resultados obtidos a partir desta modelagem e possıvel determinar o perfil da zona de combustao, a distribuicao de concentracoes de especies quımicas, o campo de velocidades e as taxas de transferencia de calor para as paredes da camara de combustao, total, por conveccao superficial e por radiacao. Estes resultados sao de extrema importancia para prever a performance de camaras de combustao, assim como auxiliar na sua otimizacao.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multi-factor models constitute a useful tool to explain cross-sectional covariance in equities returns. We propose in this paper the use of irregularly spaced returns in the multi-factor model estimation and provide an empirical example with the 389 most liquid equities in the Brazilian Market. The market index shows itself significant to explain equity returns while the US$/Brazilian Real exchange rate and the Brazilian standard interest rate does not. This example shows the usefulness of the estimation method in further using the model to fill in missing values and to provide interval forecasts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We examine bivariate extensions of Aït-Sahalia’s approach to the estimation of univariate diffusions. Our message is that extending his idea to a bivariate setting is not straightforward. In higher dimensions, as opposed to the univariate case, the elements of the Itô and Fokker-Planck representations do not coincide; and, even imposing sensible assumptions on the marginal drifts and volatilities is not sufficient to obtain direct generalisations. We develop exploratory estimation and testing procedures, by parametrizing the drifts of both component processes and setting restrictions on the terms of either the Itô or the Fokker-Planck covariance matrices. This may lead to highly nonlinear ordinary differential equations, where the definition of boundary conditions is crucial. For the methods developed, the Fokker-Planck representation seems more tractable than the Itô’s. Questions for further research include the design of regularity conditions on the time series dependence in the data, the kernels actually used and the bandwidths, to obtain asymptotic properties for the estimators proposed. A particular case seems promising: “causal bivariate models” in which only one of the diffusions contributes to the volatility of the other. Hedging strategies which estimate separately the univariate diffusions at stake may thus be improved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentada a solução da equação de difusão-advecção transiente para simular a dispersão de poluentes na Camada Limite Planetária. A solução é obtida através do método analítico GILTT (Generalized Integral Laplace Transform Technique) e da técnica de inversão numérica da quadratura de Gauss. A validação da solução é comprovada utilizando as concentraçãos obtidas a partir do modelo com as obtidas experimentalmente pelo Experimento de Copenhagen. Nesta comparação foram utilizados os perfis de vento potencial e logaritmo e os parâmetros de turbulência propostos por Degrazia et al (1997) [19] e (2002) [17]. Os melhores resultados foram obtidos utilizando o perfil de vento potencial e o coeficiente de difusão propostos por Degrazia et al (1997). A influência da velocidade vertical é mostrada através do comportamento das concentrações de poluentes na pluma. Além disso, as velocidades verticais e longitudinais geradas pelo Large Eddy Simulation (LES) foram colocadas no modelo para poder simular uma camada limite turbulenta mais realística, a qual apresentou resultados satisfatórios quando comparados com os disponíveis na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objetivo deste estudo foi investigar a possível relação entre o fracasso escolar, entendido como anos de repetência, e o autoconceito de alunos da 8a. série do 1º grau da rede oficial de escolas de Campo Grande, no Município do Rio de Janeiro. Este trabalho foi realizado com dois grupos de alunos, sendo que um grupo havia tido experiência de fracasso escolar, isto é, repetência, e o outro grupo não. Para verificar a relação, repetência e autoconceito, foi utilizada a "Escala de Autoconceito Tennessee", desenvolvida por H. Fitts, traduzida e reduzida por Corona em 1977. A escala consta de 30 itens com 5 alternativas de respostas para cada item (tipo Likertl, sua amplitude é de 150 pontos, sendo o maior escore possível 150 (30x51 o menor 30 (30x1), indicando respectivamente uma desestruturação do autoconceito em termos de supervalorização e uma desestruturação por infra-aloração. O confronto das médias de autoconceito de grupos de alunos com diferentes frequências de repetência e sem repetência mostrou que a repetência de serie covaria significativamente com o autoconceito dos alunos estudados, concomitantemente, com a classe social. Apesar de os resultados do estudo não serem conclusivos, ainda assim consideramos válida sua realização, na medida em que fornece mais esclarecimentos a um dos mais graves problemas da escola de 1º grau no Brasil, que é o da repetência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho descreve o estudo comparativo entre dois métodos de ensino aplicados à disciplina de Fisiologia Cárdio-respiratória do curso de Graduação em Medicina, no Centro de Ciências Médicas da Universidade Federal do Rio de Janeiro. Os métodos comparados foram: a auto-instrução e o método tradicional. A formulação do problema, o seu contexto e fundamentação teórica são descritos no início do trabalho, que prossegue' presentando o planejamento do curso com o emprego de ambos os métodos. Em seguida, descreve-se a metodologia utilizada no estudo experimental. Foi adotado o esquema de grupos equivalentes com pós-teste, sendo que o grupo experimental e os grupos de controle' foram escolhidos aleatoriamente. A hipótese experimental visava comprovar que a nota ' final', correspondente à verificação da aprendizagem na disciplina, apresenta diferença significativa entre os alunos que foram submetidos ao método de auto-instrução, comparativamente à nota dos alunos que foram submetidos ao método tradicional. O tratamento estatístico utilizado foi a análise da covariância com o nível de significância de 0,05. O resultado da análise da covariância não foi significativo, considerando a média final do aluno no teste-critério, assim como as notas parciais nas cinco semanas do curso. Uma análise de regressão por passos foi feita, visando controlar algumas variáveis pudessem intervir na diferença entre os grupos experimental e de controle. Entre as variáveis escolhidas, pode-se afirmar que é preditora da nota do aluno na disciplina Fisiologia Cárdio-respiratória, a nota anterior do aluno na disciplina Biofísica. Concluindo, sugere-se novas pesquisas no campo, principalmente relativas a tempo efetivamente gasto pelo professor e pelo aluno, utilizando o método de auto-instrução, assim como' medidas de retenção da aprendizagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seguros de carteiras proporcionam aos gestores limitar o risco de downside sem renunciar a movimentos de upside. Nesta dissertação, propomos um arcabouço de otimização de seguro de carteira a partir de um modelo híbrido frequentista-Bayesiano com uso de derivativos. Obtemos a distribuição conjunta de retornos regulares através de uma abordagem estatística frequentista, uma vez removidos os outliers da amostra. A distribuição conjunta dos retornos extremos, por sua vez, é modelada através de Redes Bayesianas, cuja topologia contempla os eventos que o gestor considera crítico ao desempenho da carteira. Unindo as distribuições de retornos regulares e extremos, simulamos cenários futuros para a carteira. O seguro é, então, otimizado através do algoritmo Evolução Diferencial. Mostramos uma aplicação passo a passo para uma carteira comprada em ações do Ibovespa, utilizando dados de mercado entre 2008 e 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study the asset pricing implications of an endowment economy when agents can default on contracts that would leave them otherwise worse off. We specialize and extend the environment studied by Kocherlakota (1995) and Kehoe and Levine (1993) to make it comparable to standard studies of asset pricillg. We completely charactize efficient allocations for several special cases. We illtroduce a competitive equilibrium with complete markets alld with elldogellous solvency constraints. These solvellcy constraints are such as to prevent default -at the cost of reduced risk sharing. We show a version of the classical welfare theorems for this equilibrium definition. We characterize the pricing kernel, alld compare it with the one for economies without participation constraints : interest rates are lower and risk premia can be bigger depending on the covariance of the idiosyncratic and aggregate shocks. Quantitative examples show that for reasonable parameter values the relevant marginal rates of substitution fali within the Hansen-Jagannathan bounds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this article we use factor models to describe a certain class of covariance structure for financiaI time series models. More specifical1y, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. We build on previous work by allowing the factor loadings, in the factor mo deI structure, to have a time-varying structure and to capture changes in asset weights over time motivated by applications with multi pIe time series of daily exchange rates. We explore and discuss potential extensions to the models exposed here in the prediction area. This discussion leads to open issues on real time implementation and natural model comparisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The past decade has wítenessed a series of (well accepted and defined) financial crises periods in the world economy. Most of these events aI,"e country specific and eventually spreaded out across neighbor countries, with the concept of vicinity extrapolating the geographic maps and entering the contagion maps. Unfortunately, what contagion represents and how to measure it are still unanswered questions. In this article we measure the transmission of shocks by cross-market correlation\ coefficients following Forbes and Rigobon's (2000) notion of shift-contagion,. Our main contribution relies upon the use of traditional factor model techniques combined with stochastic volatility mo deIs to study the dependence among Latin American stock price indexes and the North American indexo More specifically, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. From a theoretical perspective, we improve currently available methodology by allowing the factor loadings, in the factor model structure, to have a time-varying structure and to capture changes in the series' weights over time. By doing this, we believe that changes and interventions experienced by those five countries are well accommodated by our models which learns and adapts reasonably fast to those economic and idiosyncratic shocks. We empirically show that the time varying covariance structure can be modeled by one or two common factors and that some sort of contagion is present in most of the series' covariances during periods of economical instability, or crisis. Open issues on real time implementation and natural model comparisons are thoroughly discussed.