882 resultados para Quasi-Likelihood
Resumo:
This work deals with some classes of linear second order partial differential operators with non-negative characteristic form and underlying non- Euclidean structures. These structures are determined by families of locally Lipschitz-continuous vector fields in RN, generating metric spaces of Carnot- Carath´eodory type. The Carnot-Carath´eodory metric related to a family {Xj}j=1,...,m is the control distance obtained by minimizing the time needed to go from two points along piecewise trajectories of vector fields. We are mainly interested in the causes in which a Sobolev-type inequality holds with respect to the X-gradient, and/or the X-control distance is Doubling with respect to the Lebesgue measure in RN. This study is divided into three parts (each corresponding to a chapter), and the subject of each one is a class of operators that includes the class of the subsequent one. In the first chapter, after recalling “X-ellipticity” and related concepts introduced by Kogoj and Lanconelli in [KL00], we show a Maximum Principle for linear second order differential operators for which we only assume a Sobolev-type inequality together with a lower terms summability. Adding some crucial hypotheses on measure and on vector fields (Doubling property and Poincar´e inequality), we will be able to obtain some Liouville-type results. This chapter is based on the paper [GL03] by Guti´errez and Lanconelli. In the second chapter we treat some ultraparabolic equations on Lie groups. In this case RN is the support of a Lie group, and moreover we require that vector fields satisfy left invariance. After recalling some results of Cinti [Cin07] about this class of operators and associated potential theory, we prove a scalar convexity for mean-value operators of L-subharmonic functions, where L is our differential operator. In the third chapter we prove a necessary and sufficient condition of regularity, for boundary points, for Dirichlet problem on an open subset of RN related to sub-Laplacian. On a Carnot group we give the essential background for this type of operator, and introduce the notion of “quasi-boundedness”. Then we show the strict relationship between this notion, the fundamental solution of the given operator, and the regularity of the boundary points.
Resumo:
In questo documento è stata proposta una soluzione per l'estrazione di carica da un trasduttore piezoelettrico mediante un circuito di conversione quasi-sincrono. Il trasduttore piezoelettrico può essere considerato un ottimo dispositivo per convertire l’energia derivante dalle vibrazioni; la soluzione proposta di estrazione di carica in maniera quasi-sincrona permette un processo di energy harvesting con prestazioni nettamente migliori rispetto al caso di conversione sincrona per casi di trasduttori fortemente accoppiati.
Resumo:
The advances that have been characterizing spatial econometrics in recent years are mostly theoretical and have not found an extensive empirical application yet. In this work we aim at supplying a review of the main tools of spatial econometrics and to show an empirical application for one of the most recently introduced estimators. Despite the numerous alternatives that the econometric theory provides for the treatment of spatial (and spatiotemporal) data, empirical analyses are still limited by the lack of availability of the correspondent routines in statistical and econometric software. Spatiotemporal modeling represents one of the most recent developments in spatial econometric theory and the finite sample properties of the estimators that have been proposed are currently being tested in the literature. We provide a comparison between some estimators (a quasi-maximum likelihood, QML, estimator and some GMM-type estimators) for a fixed effects dynamic panel data model under certain conditions, by means of a Monte Carlo simulation analysis. We focus on different settings, which are characterized either by fully stable or quasi-unit root series. We also investigate the extent of the bias that is caused by a non-spatial estimation of a model when the data are characterized by different degrees of spatial dependence. Finally, we provide an empirical application of a QML estimator for a time-space dynamic model which includes a temporal, a spatial and a spatiotemporal lag of the dependent variable. This is done by choosing a relevant and prolific field of analysis, in which spatial econometrics has only found limited space so far, in order to explore the value-added of considering the spatial dimension of the data. In particular, we study the determinants of cropland value in Midwestern U.S.A. in the years 1971-2009, by taking the present value model (PVM) as the theoretical framework of analysis.
Resumo:
Small-scale dynamic stochastic general equilibrium have been treated as the benchmark of much of the monetary policy literature, given their ability to explain the impact of monetary policy on output, inflation and financial markets. One cause of the empirical failure of New Keynesian models is partially due to the Rational Expectations (RE) paradigm, which entails a tight structure on the dynamics of the system. Under this hypothesis, the agents are assumed to know the data genereting process. In this paper, we propose the econometric analysis of New Keynesian DSGE models under an alternative expectations generating paradigm, which can be regarded as an intermediate position between rational expectations and learning, nameley an adapted version of the "Quasi-Rational" Expectatations (QRE) hypothesis. Given the agents' statistical model, we build a pseudo-structural form from the baseline system of Euler equations, imposing that the length of the reduced form is the same as in the `best' statistical model.
Resumo:
La tecnologia odierna, orientata sempre di più verso il “low-power”, ha permesso di poter sviluppare sistemi elettronici in grado di autoalimentarsi senza alcun bisogno di sorgenti di energia tradizionali. Questo è possibile, ad esempio, utilizzando trasduttori piezoelettrici, in grado di trasformare l’energia meccanica, provocata ad esempio da una vibrazione, in un’altra forma di energia che, in tal caso, risulta essere una grandezza elettrica. Il settore principale in cui viene impiegato questo componente è quello dell’Energy Harvesting, ovvero un campo dell’elettronica in cui si cerca di estrarre dall'ambiente circostante bassissime quantità di energia mediante tecniche opportune, cercando di ridurre i consumi dei circuiti di controllo annessi e renderli, in maggior parte, il più possibile autosufficienti. L’obiettivo è quello di implementare alcune tecniche di recupero dell’energia mediante circuiti gestiti a microcontrollore e valutare se tali metodiche portino a risultati accettabili in grado di soddisfare quelli che sono i requisiti che il mondo dell’Energy Harvesting richiede.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
L’oggetto di questa tesi di laurea è un intervento di recupero e riprogettazione di un edificio non completato, destinato a 24 alloggi di edilizia residenziale pubblica, situato a Rovigo. Questo è stato oggetto di una lunga ed articolata vicenda caratterizzata da continue interruzioni del cantiere, principalmente causate da una cattiva esecuzione dei lavori da parte dell’impresa costruttrice. Allo stato attuale è presente la sola struttura metallica assemblata sulle fondazioni in calcestruzzo armato; tutto il fabbricato risulta abbandonato e congelato da diversi anni dopo i primi collaudi che hanno stabilito la non idoneità del telaio in acciaio. L’obiettivo del progetto è dunque quello di recuperare le fondazioni esistenti e di riprogettare l’edificio in una chiave più attuale e sostenibile. E’ stato effettuato un sopralluogo per comprendere più da vicino le problematiche relative all’area di progetto, oltre ad un’attenta analisi delle documentazioni riguardanti il progetto originario in modo da correggere eventuali punti deboli. Le strategie non hanno tenuto conto dunque solamente di un’ottima efficienza energetica o di un’offerta di alloggi adeguata alla domanda della situazione abitativa attuale, ma anche di tutte le problematiche che sono derivate dalla cattiva gestione del progetto originario. Le scelte progettuali, infatti, sono state il risultato anche delle necessità di limitare tempi e costi di un intervento per il quale sono state sprecate fin troppe risorse, soprattutto economiche. La fase progettuale è stata affiancata dalla realizzazione di simulazioni effettuate tramite software di calcolo (Termolog EpiX 6 e DIALux evo) che hanno permesso di ottenere ottimi risultati per quanto riguarda prestazione energetica e comfort luminoso indoor.
Resumo:
I raggi X, a partire dalla loro scoperta, avvenuta nel 1895 ad opera di Wilhelm Conrad Röntgen, si sono rivelati un potentissimo mezzo per lo studio della materia. In particolare in campo medico hanno permesso la nascita della diagnostica per immagini che, parallelamente allo sviluppo delle tecnologie, è diventata un mezzo imprescindibile per lo studio delle patologie. Negli ultimi decenni molti studi sono stati compiuti in particolare sui vantaggi dell’utilizzo nell’imaging di raggi X monocromatici in sostituzione dell’usuale radiazione policromatica. Con il seguente elaborato si ha l’intento di fornire un quadro generale sulla fisica dei raggi X, sulla loro interazione con la materia e sugli attuali metodi di produzione di fasci monocromatici e quasi-monocromatici, con particolare attenzione all'utilizzo su vasta scala. Sono state infine trattate le principali applicazioni della radiazione monocromatica e quasi-monocromatica nelle tecniche di imaging medico.
Resumo:
We compared revision and mortality rates of 4668 patients undergoing primary total hip and knee replacement between 1989 and 2007 at a University Hospital in New Zealand. The mean age at the time of surgery was 69 years (16 to 100). A total of 1175 patients (25%) had died at follow-up at a mean of ten years post-operatively. The mean age of those who died within ten years of surgery was 74.4 years (29 to 97) at time of surgery. No change in comorbidity score or age of the patients receiving joint replacement was noted during the study period. No association of revision or death could be proven with higher comorbidity scoring, grade of surgeon, or patient gender. We found that patients younger than 50 years at the time of surgery have a greater chance of requiring a revision than of dying, those around 58 years of age have a 50:50 chance of needing a revision, and in those older than 62 years the prosthesis will normally outlast the patient. Patients over 77 years old have a greater than 90% chance of dying than requiring a revision whereas those around 47 years are on average twice as likely to require a revision than die. This information can be used to rationalise the need for long-term surveillance and during the informed consent process.