953 resultados para quasi-likelihood
Resumo:
A compact, planar, wideband antenna designed by modifying the coplanar waveguide is presented in this letter. The proposed antenna finds a wide range of applications including advanced wireless systems (AWS), DCS-1800, DCS-1900/PCS/PHS, WiBro, BlueTooth/WLAN/WiBree/ZigBee, DMB, Global Star Satellite Phones, and digital cordless phones. Wide bandwidth > 75% centered at 2.50 GHz, quasi-omnidirectional radiation coverage along with moderate gain and efficiency are the salient features of the antenna. A prototype fabricated on a substrate with dielectric constant 4.4 and thickness 1.6 mm occupies an area of (31times 64) mm2. Details of antenna design and discussions on the effect of various antenna parameters on the radiation characteristics are presented.
Resumo:
The classical methods of analysing time series by Box-Jenkins approach assume that the observed series uctuates around changing levels with constant variance. That is, the time series is assumed to be of homoscedastic nature. However, the nancial time series exhibits the presence of heteroscedasticity in the sense that, it possesses non-constant conditional variance given the past observations. So, the analysis of nancial time series, requires the modelling of such variances, which may depend on some time dependent factors or its own past values. This lead to introduction of several classes of models to study the behaviour of nancial time series. See Taylor (1986), Tsay (2005), Rachev et al. (2007). The class of models, used to describe the evolution of conditional variances is referred to as stochastic volatility modelsThe stochastic models available to analyse the conditional variances, are based on either normal or log-normal distributions. One of the objectives of the present study is to explore the possibility of employing some non-Gaussian distributions to model the volatility sequences and then study the behaviour of the resulting return series. This lead us to work on the related problem of statistical inference, which is the main contribution of the thesis
Resumo:
Theory Division Department of Physics
Resumo:
Ausgangspunkt der Dissertation ist ein von V. Maz'ya entwickeltes Verfahren, eine gegebene Funktion f : Rn ! R durch eine Linearkombination fh radialer glatter exponentiell fallender Basisfunktionen zu approximieren, die im Gegensatz zu den Splines lediglich eine näherungsweise Zerlegung der Eins bilden und somit ein für h ! 0 nicht konvergentes Verfahren definieren. Dieses Verfahren wurde unter dem Namen Approximate Approximations bekannt. Es zeigt sich jedoch, dass diese fehlende Konvergenz für die Praxis nicht relevant ist, da der Fehler zwischen f und der Approximation fh über gewisse Parameter unterhalb der Maschinengenauigkeit heutiger Rechner eingestellt werden kann. Darüber hinaus besitzt das Verfahren große Vorteile bei der numerischen Lösung von Cauchy-Problemen der Form Lu = f mit einem geeigneten linearen partiellen Differentialoperator L im Rn. Approximiert man die rechte Seite f durch fh, so lassen sich in vielen Fällen explizite Formeln für die entsprechenden approximativen Volumenpotentiale uh angeben, die nur noch eine eindimensionale Integration (z.B. die Errorfunktion) enthalten. Zur numerischen Lösung von Randwertproblemen ist das von Maz'ya entwickelte Verfahren bisher noch nicht genutzt worden, mit Ausnahme heuristischer bzw. experimenteller Betrachtungen zur sogenannten Randpunktmethode. Hier setzt die Dissertation ein. Auf der Grundlage radialer Basisfunktionen wird ein neues Approximationsverfahren entwickelt, welches die Vorzüge der von Maz'ya für Cauchy-Probleme entwickelten Methode auf die numerische Lösung von Randwertproblemen überträgt. Dabei werden stellvertretend das innere Dirichlet-Problem für die Laplace-Gleichung und für die Stokes-Gleichungen im R2 behandelt, wobei für jeden der einzelnen Approximationsschritte Konvergenzuntersuchungen durchgeführt und Fehlerabschätzungen angegeben werden.
Resumo:
We discuss the possibility of identifying superheavy elements from the observation of their M-shell x-ray spectra, which might occur during the collision of a superheavy element with a heavy target. The same question is discussed for the possible observation of the x-rays from the quasimolecule (quasi-superheavy element) which is formed during such a heavy-ion collision. It is shown that it is very difficult, if not impossible, to determine any information about the interesting quantum electrodynamical effects from the M-shell x-ray spectra of these quasimolecules.
Resumo:
Due to the tremendous spin-orbit splitting of quasi-molecular levels in superheavy collision systems (Z = Z_1 + Z_2 {\ge\approx} 137) bombarding energy 0.5-6 MeV N{^-1}, unusual couplings may occur around Z \simeq 165. Experimental evidence for such a theoretically predicted coupling is discussed.
Resumo:
The potential energy curve of the system Ne-Ne is calculated for small internuclear distances from 0.005 to 3.0 au using a newly developed relativistic molecular Dirac-Fock-Slater code. A significant structure in the potential energy curve is found which leads to a nearly complete agreement with experimental differential elastic scattering cross sections. This demonstrates the presence of quasi-molecular effects in elastic ion-atom collisions at keV energies.
Resumo:
In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.
Resumo:
The Aitchison vector space structure for the simplex is generalized to a Hilbert space structure A2(P) for distributions and likelihoods on arbitrary spaces. Central notations of statistics, such as Information or Likelihood, can be identified in the algebraical structure of A2(P) and their corresponding notions in compositional data analysis, such as Aitchison distance or centered log ratio transform. In this way very elaborated aspects of mathematical statistics can be understood easily in the light of a simple vector space structure and of compositional data analysis. E.g. combination of statistical information such as Bayesian updating, combination of likelihood and robust M-estimation functions are simple additions/ perturbations in A2(Pprior). Weighting observations corresponds to a weighted addition of the corresponding evidence. Likelihood based statistics for general exponential families turns out to have a particularly easy interpretation in terms of A2(P). Regular exponential families form finite dimensional linear subspaces of A2(P) and they correspond to finite dimensional subspaces formed by their posterior in the dual information space A2(Pprior). The Aitchison norm can identified with mean Fisher information. The closing constant itself is identified with a generalization of the cummulant function and shown to be Kullback Leiblers directed information. Fisher information is the local geometry of the manifold induced by the A2(P) derivative of the Kullback Leibler information and the space A2(P) can therefore be seen as the tangential geometry of statistical inference at the distribution P. The discussion of A2(P) valued random variables, such as estimation functions or likelihoods, give a further interpretation of Fisher information as the expected squared norm of evidence and a scale free understanding of unbiased reasoning
Resumo:
En el año 2002, la Secretaría de Educación de Bogotá estipuló la Resolución 2101 que tenía por objeto asegurar el ciclo de la educación completo en los colegios públicos. El propósito de este trabajo es evaluar el impacto de los mecanismos seguidos a la aplicación de esta política sobre la tasa de deserción escolar. Las escuelas tenían tres mecanismos diferentes para alcanzar el objetivo de la presente resolución: expandir los grados escolares ofertados, integrarse con otros colegios de la zona, o ambos. Para ello, utilizo variables instrumentales para resolver el sesgo causado por el hecho de que los colegios que siguen determinada estrategia eran los que tenían altas tasas de deserción inicialmente. Usando datos sobre las características institucionales y las características socio-demográficas de la población cerca del colegio, evalúo el impacto de estos tres mecanismos sobre las tasas de deserción escolar. Los resultados sugieren que las instituciones que aumentaron los grados experimentan un aumento en el número de estudiantes que abandonan el colegio en 12.1 puntos porcentuales, mientras que las instituciones que complementaron este mecanismo con la integración de un colegio próximo pre existente mostraron una reducción en la tasa de deserción escolar de 9.8 puntos porcentuales.
Resumo:
La crisis que se desató en el mercado hipotecario en Estados Unidos en 2008 y que logró propagarse a lo largo de todo sistema financiero, dejó en evidencia el nivel de interconexión que actualmente existe entre las entidades del sector y sus relaciones con el sector productivo, dejando en evidencia la necesidad de identificar y caracterizar el riesgo sistémico inherente al sistema, para que de esta forma las entidades reguladoras busquen una estabilidad tanto individual, como del sistema en general. El presente documento muestra, a través de un modelo que combina el poder informativo de las redes y su adecuación a un modelo espacial auto regresivo (tipo panel), la importancia de incorporar al enfoque micro-prudencial (propuesto en Basilea II), una variable que capture el efecto de estar conectado con otras entidades, realizando así un análisis macro-prudencial (propuesto en Basilea III).
Resumo:
Resumen tomado de la publicación en catalán. Este artículo forma parte del monográfico 'Internet, un nou context d'aprenentatge?'. El artículo adjunta esta página web: www.lacenet.org
Resumo:
We propose and estimate a financial distress model that explicitly accounts for the interactions or spill-over effects between financial institutions, through the use of a spatial continuity matrix that is build from financial network data of inter bank transactions. Such setup of the financial distress model allows for the empirical validation of the importance of network externalities in determining financial distress, in addition to institution specific and macroeconomic covariates. The relevance of such specification is that it incorporates simultaneously micro-prudential factors (Basel 2) as well as macro-prudential and systemic factors (Basel 3) as determinants of financial distress. Results indicate network externalities are an important determinant of financial health of a financial institutions. The parameter that measures the effect of network externalities is both economically and statistical significant and its inclusion as a risk factor reduces the importance of the firm specific variables such as the size or degree of leverage of the financial institution. In addition we analyze the policy implications of the network factor model for capital requirements and deposit insurance pricing.
Resumo:
Contrastar el modelo denominado CPM (basado en el desarrollo de los procesos comunicativos) con el modelo de secuenciación de actividades P-P-P (presentación-práctica-producción) que es el utilizado con mayor frecuencia en los libros de texto para la enseñanza de los idiomas, para medir la eficacia diferencial en el aprendizaje lingüístico del inglés como lengua extranjera.. Estudio llevado a cabo en la Escuela Oficial de Idiomas de Murcia con una muestra inicial de 51 sujetos que se redujo a 34 nativos de lengua española de edades comprendidas entre los 16 y 41 años formada mayoritariamente por mujeres. Estudio cuasi-experimental de análisis de medidas repetidas con grupo experimental y grupo de control (factor intersujetos). La variable dependiente es la eficacia de la intervención objeto de estudio o intervención CPM. La variable independiente es el grupo, que consta de dos partes, el que sigue el programa establecido en el centro de enseñanza, versión P-P-P y el grupo experimental (EG) que recibe instrucción basada en el CPM. La aplicación duró 4 meses (enero-mayo 2003) y el total de sesiones fue de 35 para cada uno de los dos grupos. Se utilizó el examen estandarizado internacional Cambridge First Certificate in English (FCE) en su parte: Use of English.. La secuenciación de actividades en general y la basada en el CPM en particular merecen un justo reconocimiento en el ámbito de la investigación en enseñanza de lenguas extranjeras debido no solo a las puntuaciones obtenidas en la investigación sino también a su fundamentación teórica basada en un modelo cognitivo de adquisición de conocimientos ampliamente aplicado en SLA y a su flexibilidad en cuanto a las vías de aprendizaje propuestas, su atención al concepto script y su afinidad con los enfoques didácticos actuales (integración de destrezas, relevancia e interés para el alumno, variedad en la instrucción)..