904 resultados para Dunkl Kernel
Resumo:
In questo lavoro si introduce il progetto di estrarre lo stack tcp-ip dal kernel di linux e farlo funzionare come una normale libreria in userspace. Si parlerà dei vantaggi di avere lo stack tcp-ip in userspace, di altri progetti simili, del motivo per cui si è scelto lo stack di linux, dei principali problemi incontrati nel corso del lavoro, del percorso seguito, e di come il risultato possa essere migliorato per renderlo uno strumento effettivamente utile.
Resumo:
Wir betrachten Systeme von endlich vielen Partikeln, wobei die Partikel sich unabhängig voneinander gemäß eindimensionaler Diffusionen [dX_t = b(X_t),dt + sigma(X_t),dW_t] bewegen. Die Partikel sterben mit positionsabhängigen Raten und hinterlassen eine zufällige Anzahl an Nachkommen, die sich gemäß eines Übergangskerns im Raum verteilen. Zudem immigrieren neue Partikel mit einer konstanten Rate. Ein Prozess mit diesen Eigenschaften wird Verzweigungsprozess mit Immigration genannt. Beobachten wir einen solchen Prozess zu diskreten Zeitpunkten, so ist zunächst nicht offensichtlich, welche diskret beobachteten Punkte zu welchem Pfad gehören. Daher entwickeln wir einen Algorithmus, um den zugrundeliegenden Pfad zu rekonstruieren. Mit Hilfe dieses Algorithmus konstruieren wir einen nichtparametrischen Schätzer für den quadrierten Diffusionskoeffizienten $sigma^2(cdot),$ wobei die Konstruktion im Wesentlichen auf dem Auffüllen eines klassischen Regressionsschemas beruht. Wir beweisen Konsistenz und einen zentralen Grenzwertsatz.
Resumo:
Am vertikalen Windkanal der Johannes Gutenberg-Universität Mainz wurden physikalische und chemische Bereifungsexperimente durchgeführt. Dabei lagen die Umgebungstemperaturen bei allen Experimenten zwischen etwa -15 und -5°C und der Flüssigwassergehalt erstreckte sich von 0,9 bis etwa 1,6g/m³, typische Bedingungen für Mischphasenwolken in denen Bereifung stattfindet. Oberflächentemperaturmessungen an wachsenden hängenden Graupelpartikeln zeigten, dass während der Experimente trockene Wachstumsbedingungen herrschten.rnZunächst wurde das Graupelwachstum an in einer laminaren Strömung frei schwebenden Eispartikeln mit Anfangsradien zwischen 290 und 380µm, die mit flüssigen unterkühlten Wolkentröpfchen bereift wurden, studiert. Ziel war es, den Kollektionskern aus der Massenzunahme des bereiften Eispartikels und dem mittleren Flüssigwassergehalt während des Wachstumsexperimentes zu bestimmen. Die ermittelten Werte für die Kollektionskerne der bereiften Eispartikel erstreckten sich von 0,9 bis 2,3cm³/s in Abhängigkeit ihres Kollektorimpulses (Masse * Fallgeschwindigkeit des bereifenden Graupels), der zwischen 0,04 und 0,10gcm/s lag. Bei den Experimenten zeigte sich, dass die hier gemessenen Kollektionskerne höher waren im Vergleich mit Kollektionskernen flüssiger Tropfen untereinander. Aus den aktuellen Ergebnissen dieser Arbeit und der vorhandenen Literaturwerte wurde ein empirischer Faktor entwickelt, der von dem Wolkentröpfchenradius abhängig ist und diesen Unterschied beschreibt. Für die untersuchten Größenbereiche von Kollektorpartikel und flüssigen Tröpfchen können die korrigierten Kollektionskernwerte in Wolkenmodelle für die entsprechenden Größen eingebunden werden.rnBei den chemischen Experimenten zu dieser Arbeit wurde die Spurenstoffaufnahme verschiedener atmosphärischer Spurengase (HNO3, HCl, H2O2, NH3 und SO2) während der Bereifung untersucht. Diese Experimente mussten aus technischen Gründen mit hängenden Eispartikeln, dendritischen Eiskristallen und Schneeflocken, bereift mit flüssigen Wolkenlösungströpfchen, durchgeführt werden.rnDie Konzentrationen der Lösung, aus der die Wolkentröpfchen mit Hilfe von Zweistoffdüsen erzeugt wurden, lagen zwischen 1 und 120mg/l. Für die Experimente mit Ammoniak und Schwefeldioxid wurden Konzentrationen zwischen 1 und 22mg/l verwendet. Das Schmelzwasser der bereiften hängenden Graupel und Schneeflocken wurden ionenchromatographisch analysiert und zusammen mit der bekannten Konzentration der bereifenden Wolkentröpfchen konnte der Retentionskoeffizient für jeden Spurenstoff bestimmt werden. Er gibt die Menge an Spurenstoff an, die bei der Phasenumwandlung von flüssig zu fest in die Eisphase übergeht. Salpetersäure und Salzsäure waren nahezu vollständig retiniert (Mittelwerte der gesamten Experimente entsprechend 99±8% und 100±9%). Für Wasserstoffperoxid wurde ein mittlerer Retentionskoeffizient von 65±17% bestimmt. rnDer mittlere Retentionskoeffizient von Ammoniak ergab sich unabhängig vom Flüssigwassergehalt zu 92±21%, während sich für Schwefeldioxid 53±10% für niedrige und 29±7% für hohe Flüssigphasenkonzentrationen ergaben. Bei einigen der untersuchten Spurenstoffe wurde eine Temperaturabhängigkeit beobachtet und wenn möglich durch Parametrisierungen beschrieben.rn
Resumo:
Questa tesi riguarda l'analisi di immagini astronomiche. In particolare esamineremo tecniche che permettono l'elaborazione di immagini. Si parlerà di operazioni di base che comprendono le usuali operazioni matematiche e le trasformazioni geometriche fornendo alcuni esempi di applicazioni. Parleremo inoltre approfonditamente dell'operazione di convoluzione tra immagini e delle sue proprietà. Successivamente tratteremo in modo approfondito la teoria di Fourier, a partire dai suoi lavori sulle serie omonime fino allo sviluppo dell'algoritmo FFT. Vedremo inoltre svariate applicazioni della trasformata di Fourier all'analisi di immagini. Per concludere parleremo di deconvoluzione, analizzando in particolare due algoritmi deconvolutivi, l'algoritmo di Van Cittert e l'algoritmo di Richardson-Lucy.
Resumo:
Il lavoro descrive la progettazione, implementazione e test sperimentale di un meccanismo, integrato nel kernel linux 4.0, dedicato al riconoscimento delle perdite dei frame Wi-Fi.
Resumo:
La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
This project addresses the unreliability of operating system code, in particular in device drivers. Device driver software is the interface between the operating system and the device's hardware. Device drivers are written in low level code, making them difficult to understand. Almost all device drivers are written in the programming language C which allows for direct manipulation of memory. Due to the complexity of manual movement of data, most mistakes in operating systems occur in device driver code. The programming language Clay can be used to check device driver code at compile-time. Clay does most of its error checking statically to minimize the overhead of run-time checks in order to stay competitive with C's performance time. The Clay compiler can detect a lot more types of errors than the C compiler like buffer overflows, kernel stack overflows, NULL pointer uses, freed memory uses, and aliasing errors. Clay code that successfully compiles is guaranteed to run without failing on errors that Clay can detect. Even though C is unsafe, currently most device drivers are written in it. Not only are device drivers the part of the operating system most likely to fail, they also are the largest part of the operating system. As rewriting every existing device driver in Clay by hand would be impractical, this thesis is part of a project to automate translation of existing drivers from C to Clay. Although C and Clay both allow low level manipulation of data and fill the same niche for developing low level code, they have different syntax, type systems, and paradigms. This paper explores how C can be translated into Clay. It identifies what part of C device drivers cannot be translated into Clay and what information drivers in Clay will require that C cannot provide. It also explains how these translations will occur by explaining how each C structure is represented in the compiler and how these structures are changed to represent a Clay structure.
Resumo:
We consider analytic reproducing kernel Hilbert spaces H with orthonormal bases of the form {(a(n) + b(n)z)z(n) : n >= 0}. If b(n) = 0 for all n, then H is a diagonal space and multiplication by z, M-z, is a weighted shift. Our focus is on providing extensive classes of examples for which M-z is a bounded subnormal operator on a tridiagonal space H where b(n) not equal 0. The Aronszajn sum of H and (1 - z)H where H is either the Hardy space or the Bergman space on the disk are two such examples.
Resumo:
We investigate the interplay of smoothness and monotonicity assumptions when estimating a density from a sample of observations. The nonparametric maximum likelihood estimator of a decreasing density on the positive half line attains a rate of convergence at a fixed point if the density has a negative derivative. The same rate is obtained by a kernel estimator, but the limit distributions are different. If the density is both differentiable and known to be monotone, then a third estimator is obtained by isotonization of a kernel estimator. We show that this again attains the rate of convergence and compare the limit distributors of the three types of estimators. It is shown that both isotonization and smoothing lead to a more concentrated limit distribution and we study the dependence on the proportionality constant in the bandwidth. We also show that isotonization does not change the limit behavior of a kernel estimator with a larger bandwidth, in the case that the density is known to have more than one derivative.
Resumo:
This paper considers a wide class of semiparametric problems with a parametric part for some covariate effects and repeated evaluations of a nonparametric function. Special cases in our approach include marginal models for longitudinal/clustered data, conditional logistic regression for matched case-control studies, multivariate measurement error models, generalized linear mixed models with a semiparametric component, and many others. We propose profile-kernel and backfitting estimation methods for these problems, derive their asymptotic distributions, and show that in likelihood problems the methods are semiparametric efficient. While generally not true, with our methods profiling and backfitting are asymptotically equivalent. We also consider pseudolikelihood methods where some nuisance parameters are estimated from a different algorithm. The proposed methods are evaluated using simulation studies and applied to the Kenya hemoglobin data.
Resumo:
In environmental epidemiology, exposure X and health outcome Y vary in space and time. We present a method to diagnose the possible influence of unmeasured confounders U on the estimated effect of X on Y and to propose several approaches to robust estimation. The idea is to use space and time as proxy measures for the unmeasured factors U. We start with the time series case where X and Y are continuous variables at equally-spaced times and assume a linear model. We define matching estimator b(u)s that correspond to pairs of observations with specific lag u. Controlling for a smooth function of time, St, using a kernel estimator is roughly equivalent to estimating the association with a linear combination of the b(u)s with weights that involve two components: the assumptions about the smoothness of St and the normalized variogram of the X process. When an unmeasured confounder U exists, but the model otherwise correctly controls for measured confounders, the excess variation in b(u)s is evidence of confounding by U. We use the plot of b(u)s versus lag u, lagged-estimator-plot (LEP), to diagnose the influence of U on the effect of X on Y. We use appropriate linear combination of b(u)s or extrapolate to b(0) to obtain novel estimators that are more robust to the influence of smooth U. The methods are extended to time series log-linear models and to spatial analyses. The LEP plot gives us a direct view of the magnitude of the estimators for each lag u and provides evidence when models did not adequately describe the data.
Resumo:
We aimed at assessing stent geometry and in-stent contrast attenuation with 64-slice CT in patients with various coronary stents. Twenty-nine patients (mean age 60 +/- 11 years; 24 men) with 50 stents underwent CT within 2 weeks after stent placement. Mean in-stent luminal diameter and reference vessel diameter proximal and distal to the stent were assessed with CT, and compared to quantitative coronary angiography (QCA). Stent length was also compared to the manufacturer's values. Images were reconstructed using a medium-smooth (B30f) and sharp (B46f) kernel. All 50 stents could be visualized with CT. Mean in-stent luminal diameter was systematically underestimated with CT compared to QCA (1.60 +/- 0.39 mm versus 2.49 +/- 0.45 mm; P < 0.0001), resulting in a modest correlation of QCA versus CT (r = 0.49; P < 0.0001). Stent length as given by the manufacturer was 18.2 +/- 6.2 mm, correlating well with CT (18.5 +/- 5.7 mm; r = 0.95; P < 0.0001) and QCA (17.4 +/- 5.6 mm; r = 0.87; P < 0.0001). Proximal and distal reference vessel diameters were similar with CT and QCA (P = 0.06 and P = 0.03). B46f kernel images showed higher image noise (P < 0.05) and lower in-stent CT attenuation values (P < 0.001) than images reconstructed with the B30f kernel. 64-slice CT allows measurement of coronary artery in-stent density, and significantly underestimates the true in-stent diameter compared to QCA.
Resumo:
A previously presented algorithm for the reconstruction of bremsstrahlung spectra from transmission data has been implemented into MATHEMATICA. Spectra vectorial algebra has been used to solve the matrix system A * F = T. The new implementation has been tested by reconstructing photon spectra from transmission data acquired in narrow beam conditions, for nominal energies of 6, 15, and 25 MV. The results were in excellent agreement with the original calculations. Our implementation has the advantage to be based on a well-tested mathematical kernel. Furthermore it offers a comfortable user interface.