998 resultados para Teoria da estimativa


Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper considers the general problem of Feasible Generalized Least Squares Instrumental Variables (FG LS IV) estimation using optimal instruments. First we summarize the sufficient conditions for the FG LS IV estimator to be asymptotic ally equivalent to an optimal G LS IV estimator. Then we specialize to stationary dynamic systems with stationary VAR errors, and use the sufficient conditions to derive new moment conditions for these models. These moment conditions produce useful IVs from the lagged endogenous variables, despite the correlation between errors and endogenous variables. This use of the information contained in the lagged endogenous variables expands the class of IV estimators under consideration and there by potentially improves both asymptotic and small-sample efficiency of the optimal IV estimator in the class. Some Monte Carlo experiments compare the new methods with those of Hatanaka [1976]. For the DG P used in the Monte Carlo experiments, asymptotic efficiency is strictly improved by the new IVs, and experimental small-sample efficiency is improved as well.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper uses an output oriented Data Envelopment Analysis (DEA) measure of technical efficiency to assess the technical efficiencies of the Brazilian banking system. Four approaches to estimation are compared in order to assess the significance of factors affecting inefficiency. These are nonparametric Analysis of Covariance, maximum likelihood using a family of exponential distributions, maximum likelihood using a family of truncated normal distributions, and the normal Tobit model. The sole focus of the paper is on a combined measure of output and the data analyzed refers to the year 2001. The factors of interest in the analysis and likely to affect efficiency are bank nature (multiple and commercial), bank type (credit, business, bursary and retail), bank size (large, medium, small and micro), bank control (private and public), bank origin (domestic and foreign), and non-performing loans. The latter is a measure of bank risk. All quantitative variables, including non-performing loans, are measured on a per employee basis. The best fits to the data are provided by the exponential family and the nonparametric Analysis of Covariance. The significance of a factor however varies according to the model fit although it can be said that there is some agreements between the best models. A highly significant association in all models fitted is observed only for nonperforming loans. The nonparametric Analysis of Covariance is more consistent with the inefficiency median responses observed for the qualitative factors. The findings of the analysis reinforce the significant association of the level of bank inefficiency, measured by DEA residuals, with the risk of bank failure.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper has several original contributions. The rst is to employ a superior interpolation method that enables to estimate, nowcast and forecast monthly Brazilian GDP for 1980-2012 in an integrated way; see Bernanke, Gertler and Watson (1997, Brookings Papers on Economic Activity). Second, along the spirit of Mariano and Murasawa (2003, Journal of Applied Econometrics), we propose and test a myriad of interpolation models and interpolation auxiliary series all coincident with GDP from a business-cycle dating point of view. Based on these results, we nally choose the most appropriate monthly indicator for Brazilian GDP. Third, this monthly GDP estimate is compared to an economic activity indicator widely used by practitioners in Brazil- the Brazilian Economic Activity Index - (IBC-Br). We found that the our monthly GDP tracks economic activity better than IBC-Br. This happens by construction, since our state-space approach imposes the restriction (discipline) that our monthly estimate must add up to the quarterly observed series in any given quarter, whichmay not hold regarding IBC-Br. Moreover, our method has the advantage to be easily implemented: it only requires conditioning on two observed series for estimation, while estimating IBC-Br requires the availability of hundreds of monthly series. Third, in a nowcasting and forecasting exercise, we illustrate the advantages of our integrated approach. Finally, we compare the chronology of recessions of our monthly estimate with those done elsewhere.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nesta pesquisa utilizou-se um equipamento experimental que utiliza o método do eco-impacto produzido no Laboratório de Ensaios Físicos do Instituto Politécnico do Rio de Janeiro (UERJ/IPRJ), para estimar a espessuras de placas de concreto através da propagação de ondas de tensão geradas por um impacto. Para determinação dessa espessura, foram investigados vários mecanismos de estruturação do protótipo do equipamento com objetivo de se obter a melhor leitura possível, por meio das literaturas existentes. Entre parâmetros avaliados no estudo, estava o modelo de sensor a ser utilizado, o tipo de impactor, a precisão relacionada à aquisição de dados e o tratamento do mesmo, a distância entre o ponto de impacto e o transdutor (sensor), e o local de teste. Os resultados experimentais concordam com as previsões teóricas e revelam que este método é eficiente para análise de estrutura de concreto. A análise da espessura e resposta em frequência de um novo protótipo desenvolvido e os testes realizados possibilitou um erro médio de espessura real para amostras sem agregados de 0,39% e para as amostras com agregados com de 0,64%. Esses resultados apontam que o equipamento produzido tem potencial e que o mesmo pode ser utilizado para avaliação de estrutura de concreto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente, o assunto de segurança em fundações tem despertado a atenção de diversos pesquisadores. Muitos entendem ser ultrapassada a utilização, pura e simples, de fatores de segurança em obras geotécnicas. O tratamento determinístico nos projetos de fundações não corresponde às variações e incertezas geradas em todo o processo de investigação do subsolo e processo executivo da fundação, sendo ainda o projeto de fundações um fim de linha de uma longa fila de disciplinas que a precedem e que geram também incertezas nas informações de esforços de suas estruturas e solicitações nas fundações. Porém, são as fundações as primeiras a serem executadas em qualquer obra civil. Este aspecto tem levado à necessidade crescente de verificar também a probabilidade de ruína da fundação por meio da chamada análise de confiabilidade. Com o objetivo de contribuir com a discussão sobre o emprego da análise de confiabilidade, as orientações da norma e o aprimoramento de modelos de cálculo, esta dissertação apresenta, através da aplicação em um estudo de caso, os diferentes aspectos de segurança abordados em projetos de fundações. Procura-se destacar dois tipos básicos de incertezas: aquelas inerentes à variabilidade espacial das propriedades do solo e as decorrentes do modelo de cálculo. Nesta pesquisa são procedidas inicialmente as extrapolações das curvas das provas de carga, que resultarão nos valores da função de Verossimilhança, para a atualização por Bayes. Numa segunda etapa se procede à estimativa da capacidade de carga a priori por alguns métodos consagrados e amplamente utilizados no Brasil. A atualização da estimativa da capacidade de carga é, a seguir, realizada através da metodologia de Bayes, sendo esta uma aplicação de conceitos da probabilidade condicional. A ideia de se proceder a estas duas alternativas de análise à priori foi norteada por duas motivações distintas: i) contribuir para a prática, pelo procedimento de combinação de informações num caso real bem documentado, conforme proposto por Vrouwenvelder (1992) e ii) motivar discussão de opiniões polêmicas de engenheiros de fundações brasileiros em relação à adoção de um fator de segurança inferior a 2 no caso de provas de carga especificadas na fase de projeto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Projetos de reatores nucleares foram classificados em quatro gerações (Gen) pelo Departamento de Energia dos Estados Unidos da América (DOE), quando o DOE introduziu o conceito de reatores de geração IV (Gen IV). Reatores Gen IV são um conjunto de projetos de reator nuclear, em sua maioria teóricos, atualmente sendo pesquisados. Entre os projetos Gen IV, incluem-se os projetos dos ADS (Accelerator Driven Systems), que são sistemas subcríticos estabilizados por fontes externas estacionárias de nêutrons. Estas fontes externas de nêutrons são normalmente geradas a partir da colisão de prótons com alta energia contra os núcleos de metais pesados presentes no núcleo do reator, fenômeno que é conhecido na literatura como spallation, e os prótons são acelerados num acelerador de partículas que é alimentado com parte da energia gerada pelo reator. A criticalidade de um sistema mantido por reações de fissão em cadeia depende do balanço entre a produção de nêutrons por fissão e a remoção por fuga pelos contornos e absorção de nêutrons. Um sistema está subcrítico quando a remoção por fuga e absorção ultrapassa a produção por fissão e, portanto, tende ao desligamento. Entretanto, qualquer sistema subcrítico pode ser estabilizado pela inclusão de fontes estacionárias de nêutrons em seu interior. O objetivo central deste trabalho é determinar as intensidades dessas fontes uniformes e isotrópicas de nêutrons, que se deve inserir em todas as regiões combustíveis do sistema, para que o mesmo estabilize-se gerando uma distribuição prescrita de potência elétrica. Diante do exposto, foi desenvolvido neste trabalho um aplicativo computacional em linguagem Java que estima as intensidades dessas fontes estacionárias de nêutrons, que devem ser inseridas em cada região combustível para que estabilizem o sistema subcrítico com uma dada distribuição de potência definida pelo usuário. Para atingir este objetivo, o modelo matemático adotado foi a equação unidimensional de transporte de nêutrons monoenergéticos na formulação de ordenadas discretas (SN) e o convencional método de malha fina diamond difference (DD) foi utilizado para resolver numericamente os problemas SN físicos e adjuntos. Resultados numéricos para dois problemas-modelos típicos são apresentados para ilustrar a acurácia e eficiência da metodologia proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundamentação, desenvolvimento e proposição metódica de um modelo geral para a estimativa do valor econômico das empresas e de seus respectivos títulos de financiamento, quer ações, debêntures ou quaisquer outros. O modelo se fundamenta nas teorias acadêmicas mais modernas e na capacidade econômica das empresas em gerar fundos de caixa no decorrer do tempo, o que o torna de aplicação universal, quer em contextos econômicos estáveis, como inflacionários demonstrada a praticabilidade do modelo através da avaliação econômica de uma empresa brasileira com base , exclusivamente em dados e informações. disponíveis publicamente

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata da explicação da teoria do APT, abarcando o estudo de suas fontes de referência, pressupostos, modelo matemático, testes empíricos e estudos de aplicação prática de suas medidas de risco. Ressalta os aportes da teoria ao estudo do risco de preços da Teoria Financeira, descrevendo os trabalhos que identificaram vantagens do APT em relação ao CAPM, relativas ao conteúdo econômico de sua equação de equilíbrio e compravaçãu empírica. Inclue um levantamento das críticas realizadas à teoria, destacando os argumentos de resposta fornecidos pelos defensores do APT. Também explica a: metccoloçias de estimativa e teste do modelo, ilustrando a forma em que são mensurados os fatores econórnicc, de risco de preços

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Produtividade é frequentemente calculada pela aproximação da função de produção Cobb-Douglas. Tal estimativa, no entanto, pode sofrer de simultaneidade e viés de seleção dos insumos. Olley e Pakes (1996) introduziu um método semi-paramétrico que nos permite estimar os parâmetros da função de produção de forma consistente e, assim, obter medidas de produtividade confiável, controlando tais problemas de viés. Este estudo aplica este método em uma empresa do setor sucroalcooleiro e utiliza o comando opreg do Stata com a finalidade de estimar a função produção, descrevendo a intuição econômica por trás dos resultados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar o desempenho de modelos isotrópicos de estimativa do total de radiação incidente em superfícies inclinadas e propor estimativas com base nas correlações entre os índices de claridade horizontais e inclinados, em diferentes condições de cobertura de céu, em Botucatu, SP. Foram avaliadas superfícies com inclinação de 12,85º, 22,85º e 32,85º, pelos modelos isotrópicos propostos por Liu & Jordan, Revfeim, Jimenez & Castro, Koronakis, a teoria Circunsolar, e a correlação entre os índices de claridade horizontais e inclinados, para diferentes condições de cobertura de céu. O banco de dados de radiação global utilizado corresponde ao período de 1998 a 2007, com intervalos de 4/1998 a 8/2001 para a inclinação de 22,85º, de 9/2001 a 2/2003 para 12,85º e de 1/2004 a 12/2007 para 32,85º. O desempenho dos modelos foi avaliado pelos indicadores estatísticos erro absoluto médio, raiz quadrada do quadrado médio do erro e índice d de Wilmott. Os modelos de Liu & Jordan, Koronakis e de Revfeim apresentaram os melhores desempenhos em dias nublados, em todas as inclinações. As coberturas de céu parcialmente difuso e parcialmente aberto, nos maiores ângulos de inclinação, apresentaram as maiores dispersões entre valores estimados e medidos, independentemente do modelo. As equações estatísticas apresentaram bons resultados em aplicações com agrupamentos de dados mensais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Percolation Theory, functions like the probability that a given site belongs to the infinite cluster, average size of clusters, etc. are described through power laws and critical exponents. This dissertation uses a method called Finite Size Scaling to provide a estimative of those exponents. The dissertation is divided in four parts. The first one briefly presents the main results for Site Percolation Theory for d = 2 dimension. Besides, some important quantities for the determination of the critical exponents and for the phase transistions understanding are defined. The second shows an introduction to the fractal concept, dimension and classification. Concluded the base of our study, in the third part the Scale Theory is mentioned, wich relates critical exponents and the quantities described in Chapter 2. In the last part, through the Finite Size Scaling method, we determine the critical exponents fi and. Based on them, we used the previous Chapter scale relations in order to determine the remaining critical exponents

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)