909 resultados para estimador Kernel
Resumo:
We revisit the debt overhang question. We first use non-parametric techniques to isolate a panel of countries on the downward sloping section of a debt Laffer curve. In particular, overhang countries are ones where a threshold level of debt is reached in sample, beyond which (initial) debt ends up lowering (subsequent)growth. On average, significantly negative coefficients appear when debt face value reaches 60 percent of GDP or 200 percent of exports, and when its present value reaches 40 percent of GDP or 140 percent of exports. Second, we depart from reduced form growth regressions and perform direct tests of the theory on the thus selected sample of overhang countries. In the spirit of event studies, we ask whether, as overhang level of debt is reached: (i)investment falls precipitously as it should when it becomes optimal to default, (ii) economic policy deteriorates observably, as it should when debt contracts become unable to elicit effort on the part of the debtor, and (iii) the terms of borrowing worsen noticeably, as they should when it becomes optimal for creditors to pre-empt default and exact punitive interest rates. We find a systematic response of investment, particularly when property rights are weakly enforced, some worsening of the policy environment, and a fall in interest rates. This easing of borrowing conditions happens because lending by the private sector virtually disappears in overhang situations, and multilateral agencies step in with concessional rates. Thus, while debt relief is likely to improve economic policy (and especially investment) in overhang countries, it is doubtful that it would ease their terms of borrowing, or the burden of debt.
Resumo:
We develop a general error analysis framework for the Monte Carlo simulationof densities for functionals in Wiener space. We also study variancereduction methods with the help of Malliavin derivatives. For this, wegive some general heuristic principles which are applied to diffusionprocesses. A comparison with kernel density estimates is made.
Resumo:
Let a class $\F$ of densities be given. We draw an i.i.d.\ sample from a density $f$ which may or may not be in $\F$. After every $n$, one must make a guess whether $f \in \F$ or not. A class is almost surely testable if there exists such a testing sequence such that for any $f$, we make finitely many errors almost surely. In this paper, several results are given that allowone to decide whether a class is almost surely testable. For example, continuity and square integrability are not testable, but unimodality, log-concavity, and boundedness by a given constant are.
Resumo:
We continue the development of a method for the selection of a bandwidth or a number of design parameters in density estimation. We provideexplicit non-asymptotic density-free inequalities that relate the $L_1$ error of the selected estimate with that of the best possible estimate,and study in particular the connection between the richness of the classof density estimates and the performance bound. For example, our methodallows one to pick the bandwidth and kernel order in the kernel estimatesimultaneously and still assure that for {\it all densities}, the $L_1$error of the corresponding kernel estimate is not larger than aboutthree times the error of the estimate with the optimal smoothing factor and kernel plus a constant times $\sqrt{\log n/n}$, where $n$ is the sample size, and the constant only depends on the complexity of the family of kernels used in the estimate. Further applications include multivariate kernel estimates, transformed kernel estimates, and variablekernel estimates.
Resumo:
O objetivo central desta tese consiste em verificar se a reduzida dimensão do país representa uma barreira significativa no processo do crescimento económico. De uma forma global, foram realizadas análises descritivas e empíricas do impacto de algumas variáveis económicas e ambientais, na taxa de crescimento do PIB per capita dos países pequenos em comparação com os países grandes, e foi estudado o processo de crescimento económico de um país pequeno e insular, Cabo Verde. Para responder à questão de partida, primeiro, recorreu-se à revisão da literatura, teórica e empírica, dos efeitos da dimensão do país no crescimento económico e, posteriormente, foram efetuadas análises descritivas de algumas variáveis económicas no grupo de países pequenos e de países grandes, o que ajudou na definição das linhas orientadoras da investigação empírica. Com recurso à técnica estatística das análises de clusters e aos indicadores população e área, foram definidos os grupos de países pequenos e de países grandes. Conciliando a fórmula genérica do modelo de crescimento económico (que engloba o modelo de Solow aumentado e acrescido de outras variáveis determinantes do crescimento) com o estimador system-GMM, foi analisado empiricamente, no período 1970-2010, o impacto das variáveis de interesse Investimento Direto Estrangeiro, Abertura Comercial, Instituições Políticas, Sociais e Económicas, Geografia, Coesão Social e Vulnerabilidade Ambiental na taxa de crescimento do PIB per capita de países pequenos e de países grandes. A investigação foi, também, direcionada para identificar empiricamente os canais de transmissão (capital humano, capital físico e produtividade) das variáveis de interesse na taxa de crescimento do PIB per capita e o contributo destas variáveis na taxa de convergência entre os países de cada grupo. Os resultados encontrados indicam um certo equilíbrio entre o número de variáveis de interesse, cujo impacto é significativamente diferente, e aquelas cujo efeito é essencialmente igual, no crescimento económico dos países pequenos e dos países grandes. A produtividade foi identificada como o principal canal de transmissão das variáveis de interesse na taxa de crescimento do PIB per capita nos dois grupos de países. Os resultados evidenciam uma taxa de convergência β superior nos países pequenos, mas a diferença entre os coeficientes não é significativa. No geral, concluiu-se que os vários condicionantes associados à reduzida dimensão, apesar de influenciarem o impacto de alguns fatores no PIB per capita, não constituem um handicap ao crescimento económico, comparativamente aos países grandes. Adicionalmente, foi realizado o Growth Diagnostic da economia cabo-verdiana, com recurso ao modelo desenvolvido por Hausmann, Rodrik e Velasco (2005). Desta análise foram identificados vários fatores que têm dificultado os investimentos/crescimento económico em Cabo Verde, como a fraca intermediação financeira, deficientes infraestruturas, altos custos nas ligações entre as ilhas, ineficiente fornecimento de energia elétrica e desvios entre as necessidades de capital humano e as áreas de formação do ensino secundário e terciário. Assim, as políticas do Governo devem ser direcionadas no sentido de ultrapassar estas barreiras.
Resumo:
Os objetivos deste trabalho foram: testar a adequação de diferentes índices de erosividade das chuvas, comparar duas equações propostas para cálculo da energia cinética das chuvas e estimar o fator K (erodibilidade) da equação universal de perdas de solo (EUPS) para um latossolo vermelho-escuro (LE) álico muito argiloso e um podzólico vermelho-amarelo (PV) álico muito argiloso da região de Sete Lagoas (MG). Não houve diferença significativa entre as duas equações testadas para cálculo da energia cinética das chuvas. O índice EI30 mostrou ser um bom estimador da erosividade da chuva e pode continuar sendo utilizado como fator R (erosividade) da EUPS para a região estudada. Os valores do fator K, para o LE e o PV da região de Sete Lagoas, foram, respectivamente, 0,002 e 0,033 t h (MJ mm)-1.
Resumo:
In recent years there has been an explosive growth in the development of adaptive and data driven methods. One of the efficient and data-driven approaches is based on statistical learning theory (Vapnik 1998). The theory is based on Structural Risk Minimisation (SRM) principle and has a solid statistical background. When applying SRM we are trying not only to reduce training error ? to fit the available data with a model, but also to reduce the complexity of the model and to reduce generalisation error. Many nonlinear learning procedures recently developed in neural networks and statistics can be understood and interpreted in terms of the structural risk minimisation inductive principle. A recent methodology based on SRM is called Support Vector Machines (SVM). At present SLT is still under intensive development and SVM find new areas of application (www.kernel-machines.org). SVM develop robust and non linear data models with excellent generalisation abilities that is very important both for monitoring and forecasting. SVM are extremely good when input space is high dimensional and training data set i not big enough to develop corresponding nonlinear model. Moreover, SVM use only support vectors to derive decision boundaries. It opens a way to sampling optimization, estimation of noise in data, quantification of data redundancy etc. Presentation of SVM for spatially distributed data is given in (Kanevski and Maignan 2004).
Resumo:
Estudaram-se as correlações entre os parâmetros de erosividade e as perdas de solo ocorridas de 24/06/1989 a 22/10/1994, num Latossolo Roxo da Unidade de Execução de Pesquisa de Âmbito Estadual (UEPAE) de Dourados (MS) - EMBRAPA. Parâmetros de erosividade da chuva, da enxurrada e da chuva-enxurrada foram analisados por meio de regressão linear simples, múltipla e não-linear, com os objetivos de: (a) definir um parâmetro de erosividade para chuvas individuais, visando aprimorar o uso da equação universal de perda de solo local, e (b) determinar o fator erodibilidade para o solo estudado. Foram tomadas 147 chuvas individuais para o cálculo computacional da erosividade. O modelo com a altura da enxurrada na forma não-linear a (Vu)b foi o que melhor se correlacionou com a capacidade erosiva das chuvas individuais, superando todos os demais modelos, simples ou compostos, da chuva ou da chuva-enxurrada. Surpreendentemente, neste trabalho, o parâmetro EI30 apresentou baixa correlação com as perdas de solo. Assim, o melhor modelo de erosividade estimador da perda de solo local foi dado pelo seguinte modelo da enxurrada 0,1444 (Vu)1,0728. Os fatores erodibilidade do solo, estimados pelos modelos a (Vu)b e a + b EI30, foram, respectivamente, de 0,1444 t ha-1 mm-1 e 0,0037 t ha h ha-1 MJ-1 mm-1.
Resumo:
Estudou-se a adsorção do herbicida tebuthiuron em três solos de Ribeirão Preto (SP): Latossolo Vermelho distrófico (LVd), Latossolo Vermelho distroférrico (LVdf) e Neossolo Quartzarênico (RQ). Ajustaram-se isotermas de adsorção por meio de quatro modelos: linear, Freundlich, Lambert e Langmuir, para duas profundidades: 0-10 cm e 10-20 cm. Nos três tipos de solo, o melhor ajuste foi obtido com o modelo de Freundlich, escolhido com base nos seguintes critérios estatísticos: quadrado do coeficiente de correlação entre valores observados e preditos (R²), quadrado médio do erro (QME), dispersão de resíduos padronizados e gráficos de probabilidade normal. Os coeficientes de partição do herbicida calculados com base em todo o solo (Kd) ou com base no seu teor de carbono orgânico (K OC) ou de matéria orgânica (K OM) variaram de 0,723 a 2,573; de 135,4 a 374,3 e de 78,4 a 218,3 L kg-1, respectivamente, tendo ocorrido correlação significativa entre os valores de Kd e teor de carbono orgânico dos solos e teor de argila. Efetuou-se um teste de lixiviação em colunas, no qual se observou movimento do herbicida até à profundidade de 60 cm no RQ, 20 cm no LVd e 10 cm no LVdf, verificando-se uma relação inversa entre a profundidade alcançada pelo produto e o valor de Kf de Freundlich utilizado como estimador de Kd.
Resumo:
Liming acid soils is considered to assure the availability of Mo in crops. Additionally, in peanuts (Arachis hypogaea L.) the positive response to liming is associated to a better supply of Ca+2, Mo for the nitrogenase-complex activity, and other non-nitrogen fixing activities of the crop. This study was thus undertaken to assess the effect of lime, Mo, and the lime-Mo interaction on peanut crop, on an acid Ultisol at the Mococa Experimental Station, Instituto Agronômico, São Paulo State, Brazil, from 1987 to 1990. A randomized complete block design with four replications, in a 4 x 4 factorial arrangement, was used in the study. The factors included four lime rates (0, 2, 4, and 6 t ha-1) broadcast and incorporated into the soil, and Mo (0, 100, 200, and 300 g ha-1) as (NH4)2MoO4 applied as seed dressing. Lime was applied once at the beginning of the study while Mo was applied at every planting. Peanut seed cv 'tatu' was used. Significant increase in peanut kernel yield with liming was only evident in the absence of Mo, whereas the peanut response to Mo was observed in two out of the three harvests. A higher yield response (28 % increase) was found when Mo was applied without liming. Soil molybdenum availability, as indicated by plant leaf analysis, increased significantly when lime was applied. Molybdenum fertilization led to higher leaf N content, which in turn increased peanut yield in treatments with smaller lime doses.
Resumo:
A capacidade de campo ou seu equivalente para culturas em vaso, a "capacidade de vaso", é um dado importante para o manejo da irrigação. O objetivo deste trabalho foi determinar, em vasos preenchidos com material de dois solos diferentes (um argiloso e um de textura média), o teor de água e a taxa de perda de água em função do tempo e, a partir dessas determinações, estabelecer valores para a capacidade de vaso a partir de diferentes critérios. Conclui-se que o teor de água final extrapolado da curva observada teta-t é um bom estimador da capacidade de vaso, especialmente para os casos em que a tolerância de perda de água é pequena. Não é recomendável estimar a capacidade de vaso com base em valores "tradicionais" de potencial matricial ou de tempo de drenagem, pois os valores são superestimados em relação aos teores obtidos com base na curva teta-t e correspondem a altas taxas de redução de teor de água.
Resumo:
A semisupervised support vector machine is presented for the classification of remote sensing images. The method exploits the wealth of unlabeled samples for regularizing the training kernel representation locally by means of cluster kernels. The method learns a suitable kernel directly from the image and thus avoids assuming a priori signal relations by using a predefined kernel structure. Good results are obtained in image classification examples when few labeled samples are available. The method scales almost linearly with the number of unlabeled samples and provides out-of-sample predictions.
Resumo:
Una de las herramientas estadísticas más importantes para el seguimiento y análisis de la evolución de la actividad económica a corto plazo es la disponibilidad de estimaciones de la evolución trimestral de los componentes del PIB, en lo que afecta tanto a la oferta como a la demanda. La necesidad de disponer de esta información con un retraso temporal reducido hace imprescindible la utilización de métodos de trimestralización que permitan desagregar la información anual a trimestral. El método más aplicado, puesto que permite resolver este problema de manera muy elegante bajo un enfoque estadístico de estimador óptimo, es el método de Chow-Lin. Pero este método no garantiza que las estimaciones trimestrales del PIB en lo que respecta a la oferta y a la demanda coincidan, haciendo necesaria la aplicación posterior de algún método de conciliación. En este trabajo se desarrolla una ampliación multivariante del método de Chow-Lin que permite resolver el problema de la estimación de los valores trimestrales de manera óptima, sujeta a un conjunto de restricciones. Una de las aplicaciones potenciales de este método, que hemos denominado método de Chow-Lin restringido, es precisamente la estimación conjunta de valores trimestrales para cada uno de los componentes del PIB en lo que afecta tanto a la demanda como a la oferta condicionada a que ambas estimaciones trimestrales del PIB sean iguales, evitando así la necesidad de aplicar posteriormente métodos de conciliación
Resumo:
Recientemente, ha aumentado mucho el interés por la aplicación de los modelos de memoria larga a variables económicas, sobre todo los modelos ARFIMA. Sin duda , el método más usado para la estimación de estos modelos en el ámbito del análisis económico es el propuesto por Geweke y Portero-Hudak (GPH) aun cuando en trabajos recientes se ha demostrado que, en ciertos casos, este estimador presenta un sesgo muy importante. De ahí que, se propone una extensión de este estimador a partir del modelo exponencial propuesto por Bloomfield, y que permite corregir este sesgo.A continuación, se analiza y compara el comportamiento de ambos estimadores en muestras no muy grandes y se comprueba como el estimador propuesto presenta un error cuadrático medio menor que el estimador GPH
Resumo:
In this paper we study, having as theoretical reference the economic model of crime (Becker, 1968; Ehrlich, 1973), which are the socioeconomic and demographic determinants of crime in Spain paying attention on the role of provincial peculiarities. We estimate a crime equation using a panel dataset of Spanish provinces (NUTS3) for the period 1993 to 1999 employing the GMMsystem estimator. Empirical results suggest that lagged crime rate and clear-up rate are correlated to all typologies of crime rate considered. Property crimes are better explained by socioeconomic variables (GDP per capita, GDP growth rate and percentage of population with high school and university degree), while demographic factors reveal important and significant influences, in particular for crimes against the person. These results are obtained using an instrumental variable approach that takes advantage of the dynamic properties of our dataset to control for both measurement errors in crime data and joint endogeneity of the explanatory variables