6 resultados para probabilistic principal component analysis (probabilistic PCA)
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Nel primo capitolo di questa tesi viene presentata una panoramica dei principali metodi di rivelazione degli esopianeti: il metodo della Velocità Radiale, il metodo Astrometrico, il metodo del Pulsar Timing, il metodo del Transito, il metodo del Microlensing ed infine il metodo del Direct Imaging che verrà approfondito nei capitoli successivi. Nel secondo capitolo vengono presentati i principi della diffrazione, viene mostrato come attenuare la luce stellare con l'uso del coronografo; vengono descritti i fenomeni di aberrazione della luce provocati dalla strumentazione e dagli effetti distorsivi dell'atmosfera che originano le cosiddette speckle; vengono poi presentate le moderne soluzioni tecniche come l'ottica attiva e adattiva, che hanno permesso un considerevole miglioramento della qualità delle osservazioni. Nel terzo capitolo sono illustrate le tecniche di Differential Imaging che permettono di rimuovere efficacemente le speckle e di migliorare il contrasto delle immagini. Nel quarto viene presentata una descrizione matematica della Principal Component Analysis (Analisi delle Componenti Principali), il metodo statistico utilizzato per la riduzione dei dati astronomici. Il quinto capitolo è dedicato a SPHERE, lo strumento progettato per il Very Large Telescope (VLT), in particolare viene descritto il suo spettrografo IFS con il quale sono stati ottenuti, nella fase di test, i dati analizzati nel lavoro di tesi. Nel sesto capitolo vengono mostrate le procedure di riduzione dati e l'applicazione dell'algoritmo di IDL LA_SVD che applica la Principal Component Analysis e ha permesso, analogamente ai metodi di Differenzial Imaging visti in precedenza, di rimuovere le speckle e migliorare il contrasto delle immagini. Nella parte conclusiva, vengono discussi i risultati.
Resumo:
Lo scopo di questo elaborato di tesi è stato quello di condurre uno studio preliminare volto ad indagare le principali caratteristiche qualitative delle carni bovine in funzione dell’origine e dell’età degli animali. Nel corso della sperimentazione sono stati analizzati 24 campioni di carne bovina ottenuti da animali di origine francese ed italiana di età compresa fra 15 e 23 mesi, acquistati presso la grande distribuzione o acquisiti direttamente dalle aziende produttrici. Da ciascun campione sono state ricavate delle porzioni di 6 mm di spessore impiegate, a loro volta, per la preparazione di sotto-campioni da sottoporre a determinazione di pH, colore, Expressible Moisture (EM %) e sforzo di taglio. Nell’ambito di ciascun parametro, l’insieme dei dati è stato analizzato mediante analisi statistica di tipo descrittivo. Successivamente, calcolata la matrice delle correlazioni fra i parametri oggetto di studio i dati sono stati elaborati mediante analisi multivariata con il metodo delle componenti principali (Principal Component Analysis, PCA) allo scopo di verificare se fosse possibile discriminare la qualità della carne in funzione dell’origine e dell’età degli animali. Quanto emerso evidenzia come non sia possibile discriminare la qualità dei campioni di carne bovina, sia acquistati al dettaglio presso la grande distribuzione che acquisiti direttamente dalle aziende produttrici, sulla base delle informazioni riportate in etichetta circa l’età e l’origine degli animali. Ciò può trovare spiegazione nella molteplicità di fattori intrinseci (specie, razza o tipo genetico, genere, età e peso degli animali alla macellazione) ed estrinseci (fasi pre- e post-macellazione) in grado di svolgere un ruolo rilevante nel determinare la qualità della carne. Pertanto, future ricerche dovranno essere intraprese per individuare quali parametri possano essere considerati più idonei a valorizzare la qualità tecnologica e sensoriale delle carni bovine.
Resumo:
The surface of the Earth is subjected to vertical deformations caused by geophysical and geological processes which can be monitored by Global Positioning System (GPS) observations. The purpose of this work is to investigate GPS height time series to identify interannual signals affecting the Earth’s surface over the European and Mediterranean area, during the period 2001-2019. Thirty-six homogeneously distributed GPS stations were selected from the online dataset made available by the Nevada Geodetic Laboratory (NGL) on the basis of the length and quality of the data series. The Principal Component Analysis (PCA) is the technique applied to extract the main patterns of the space and time variability of the GPS Up coordinate. The time series were studied by means of a frequency analysis using a periodogram and the real-valued Morlet wavelet. The periodogram is used to identify the dominant frequencies and the spectral density of the investigated signals; the second one is applied to identify the signals in the time domain and the relevant periodicities. This study has identified, over European and Mediterranean area, the presence of interannual non-linear signals with a period of 2-to-4 years, possibly related to atmospheric and hydrological loading displacements and to climate phenomena, such as El Niño Southern Oscillation (ENSO). A clear signal with a period of about six years is present in the vertical component of the GPS time series, likely explainable by the gravitational coupling between the Earth’s mantle and the inner core. Moreover, signals with a period in the order of 8-9 years, might be explained by mantle-inner core gravity coupling and the cycle of the lunar perigee, and a signal of 18.6 years, likely associated to lunar nodal cycle, were identified through the wavelet spectrum. However, these last two signals need further confirmation because the present length of the GPS time series is still too short when compared to the periods involved.
Resumo:
This work, in collaboration with the Romagna Reclamation Consortium, has the aim of studying the heavy metals concentration distribution in the drainage canals of the Ravenna coastal basins, Italy. Particular attention was given to the area of the V Fosso Ghiaia and VI Bevanella basins, where water and sediment samples were collected in the field and integrated with existing databases. The hydrological regime is controlled and managed by the Consortium, which has divided the territory into several mechanical drainage basins. XRF was performed on 21 sediment samples and pH, EC, T°, Fe2+ and Fetot were measured on 15 water samples by probes and spectrophotometer, respectively. Heavy metals concentrations exceeding legal limits of the D.LGS n ° 152/2006 were found for As, Co, Cr, Pb and Zn. These results were then integrated with canal sediment analyses provided by the Consortium to perform a Principal Component Analysis. PCA results show that the main variable affecting heavy metals distribution is the use of fertilizers, followed by distance from sea, and altimetry, which are directly linked to salinity. Heavy metals concentrations increase with increasing use of fertilizers, which are mainly due to the widespread agricultural practices and industrial land use in the area. High heavy metals concentrations are also found in the canals interested by higher salinity (especially Pinetale Ramazzotti). In fact, the area is affected by salinization caused by a water table below sea level and upward seepage of salty oxygen-poor saline water from the bottom of the aquifer. According to the literature, iron and manganese oxides were found to be an important factor in controlling the heavy metals distribution.
Resumo:
In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.
Resumo:
As a consequence of the diffusion of next generation sequencing techniques, metagenomics databases have become one of the most promising repositories of information about features and behavior of microorganisms. One of the subjects that can be studied from those data are bacteria populations. Next generation sequencing techniques allow to study the bacteria population within an environment by sampling genetic material directly from it, without the needing of culturing a similar population in vitro and observing its behavior. As a drawback, it is quite complex to extract information from those data and usually there is more than one way to do that; AMR is no exception. In this study we will discuss how the quantified AMR, which regards the genotype of the bacteria, can be related to the bacteria phenotype and its actual level of resistance against the specific substance. In order to have a quantitative information about bacteria genotype, we will evaluate the resistome from the read libraries, aligning them against CARD database. With those data, we will test various machine learning algorithms for predicting the bacteria phenotype. The samples that we exploit should resemble those that could be obtained from a natural context, but are actually produced by a read libraries simulation tool. In this way we are able to design the populations with bacteria of known genotype, so that we can relay on a secure ground truth for training and testing our algorithms.