989 resultados para Filtered SVD


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tin oxide/nitride (SnOxNy) thin films were synthesised using a filtered cathodic vacuum arc deposition system. These films were deposited at room temperature with increasing amounts of reactive nitrogen gas to alter the nanostructure. To understand the surface structure of the coatings several techniques were used including scanning electron microscopy (SEM), atomic force microscopy (AFM), x-ray photoelectron spectroscopy (XPS), x-ray diffraction (XRD) and x-ray absorption spectroscopy (XAS). Preliminary results have shown that a cathodic arc can be used to deposit smooth films which exhibit a mixed tin oxide/nitride structure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the past decade there has been massive growth of data on the internet. Many people rely on XML based RSS feeds to receive updates from websites. In this paper, we propose a method for managing the RSS feeds from various news websites. A web service is developed to deliver filtered news items from RSS feeds to a mobile client. Each news item is indexed, subsequently, the indexes are used for filtering news items. Indexing is done in two steps. First, classical text categorization algorithms are used to assign a category to each news item, second, geoparsing is used to assign geolocation data to each news item. An android application is developed to access filtered news items by consuming the proposed web service. A prototype is implemented using Rapid miner 5.0 as the data mining tool and SVM as the classification algorithm. Geoparsing and geocoding web services, and Android API are used to implement location-based access to news items. Experimental results prove that the proposed approach is effective and saves a significant amount of information overload processing time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Continuous Plankton Recorder (CPR) survey is one of the largest plankton-monitoring programmes in the world. Since 1931, the CPR has collected ∼380 000 samples, each representing 10 miles of tow. It has been assumed that the volume of seawater filtered by each sample remained constant and close to 3 m3. In this study, the volume filtered for each CPR sample was measured on two routes (SA and IN), monitored by the CPR survey, between 1995 and 2000. Although the filtered volume was near the theoretical value of 3 m3 on the SA route (3.2 m3), it was significantly higher on the IN route (3.8 m3). A significant negative relationship was found between the volume filtered and the speed of the ships. This relationship indicates that the faster the speed of the ship, the lower the volume filtered. This could have implications for the CPR survey as the speed of the ships has increased continuously since the end of the 1950s. However, no significant correlation was found between the long-term changes in the speed of the ships and two commonly used indicators of plankton variability: the Phytoplankton Colour and the Total Copepods indices. This absence of relationship may indicate that the effect found is small in comparison with the influence of hydroclimatic forcing, although a more extensive study is needed to confirm these findings.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

With the rapid development of Internet, the amount of information on the Web grows explosively, people often feel puzzled and helpless in finding and getting the information they really need. For overcoming this problem, recommender systems such as singular value decomposition (SVD) method help users finding relevant information, products or services by providing personalized recommendations based on their profiles. SVD is a powerful technique for dimensionality reduction. However, due to its expensive computational requirements and weak performance for large sparse matrices, it has been considered inappropriate for practical applications involving massive data. Thus, to extract information in which the user is interested from a massive amount of data, we propose a personalized recommendation algorithm which is called ApproSVD algorithm based on approximating SVD in this paper. The trick behind our algorithm is to sample some rows of a user-item matrix, rescale each row by an appropriate factor to form a relatively smaller matrix, and then reduce the dimensionality of the smaller matrix. Finally, we present an empirical study to compare the prediction accuracy of our proposed algorithm with that of Drineas's LINEARTIMESVD algorithm and the standard SVD algorithm on MovieLens dataset and Flixster dataset, and show that our method has the best prediction quality. Furthermore, in order to show the superiority of the ApproSVD algorithm, we also conduct an empirical study to compare the prediction accuracy and running time between ApproSVD algorithm and incremental SVD algorithm on MovieLens dataset and Flixster dataset, and demonstrate that our proposed method has better performance overall.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Due to the serious information overload problem on the Internet, recommender systems have emerged as an important tool for recommending more useful information to users by providing personalized services for individual users. However, in the “big data“ era, recommender systems face significant challenges, such as how to process massive data efficiently and accurately. In this paper we propose an incremental algorithm based on singular value decomposition (SVD) with good scalability, which combines the Incremental SVD algorithm with the Approximating the Singular Value Decomposition (ApproSVD) algorithm, called the Incremental ApproSVD. Furthermore, strict error analysis demonstrates the effectiveness of the performance of our Incremental ApproSVD algorithm. We then present an empirical study to compare the prediction accuracy and running time between our Incremental ApproSVD algorithm and the Incremental SVD algorithm on the MovieLens dataset and Flixster dataset. The experimental results demonstrate that our proposed method outperforms its counterparts.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We compared the effects of medium light roast (MLR) and medium roast (MR) paper-filtered coffee on antioxidant capacity and lipid peroxidation in healthy volunteers. In a randomized crossover study, 20 volunteers consumed 482 +/- 61 ml/day of MLR or MR for four weeks. Plasma total antioxidant status (TAS), oxygen radical absorbance capacity (ORAC), oxidized LDL and 8-epi-prostaglandin F2 alpha, erythrocyte superoxide dismutase (SOD), glutathione peroxidase (GPx), and catalase (CAT) activity were measured at baseline and after the interventions. MLR had higher chlorogenic acids-(CGA; 334 mg/150 mL) and less caffeine (231 mg/150 ml) than MR had (210 and 244 mg/150 ml, respectively). MLR also had fewer Maillard reaction products (MRP) than MR had. Compared with baseline, subjects had an increase of 21 and 26 % in TAS, 13 and 13 % in CAT, 52 and 75 % in SOD, and 62 and 49 % in GPx after MLR and MR consumption (P < 0.001), respectively. ORAC increased after MLR (P = 0.004). No significant alteration in lipid peroxidation biomarkers was observed. Both coffees had antioxidant effects. Although MLR contained more CGA, there were similar antioxidant effects between the treatments. MRP may have contributed as an antioxidant. These effects may be important in protecting biological systems and reducing the risk of diseases related to oxidative stress.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato svolto presso il servizio di Fisica Sanitaria del Policlinico Sant'Orsola-Malpighi di Bologna. Lo studio si è concentrato sul confronto tra le tecniche di ricostruzione standard (Filtered Back Projection, FBP) e quelle iterative in Tomografia Computerizzata. Il lavoro è stato diviso in due parti: nella prima è stata analizzata la qualità delle immagini acquisite con una CT multislice (iCT 128, sistema Philips) utilizzando sia l'algoritmo FBP sia quello iterativo (nel nostro caso iDose4). Per valutare la qualità delle immagini sono stati analizzati i seguenti parametri: il Noise Power Spectrum (NPS), la Modulation Transfer Function (MTF) e il rapporto contrasto-rumore (CNR). Le prime due grandezze sono state studiate effettuando misure su un fantoccio fornito dalla ditta costruttrice, che simulava la parte body e la parte head, con due cilindri di 32 e 20 cm rispettivamente. Le misure confermano la riduzione del rumore ma in maniera differente per i diversi filtri di convoluzione utilizzati. Lo studio dell'MTF invece ha rivelato che l'utilizzo delle tecniche standard e iterative non cambia la risoluzione spaziale; infatti gli andamenti ottenuti sono perfettamente identici (a parte le differenze intrinseche nei filtri di convoluzione), a differenza di quanto dichiarato dalla ditta. Per l'analisi del CNR sono stati utilizzati due fantocci; il primo, chiamato Catphan 600 è il fantoccio utilizzato per caratterizzare i sistemi CT. Il secondo, chiamato Cirs 061 ha al suo interno degli inserti che simulano la presenza di lesioni con densità tipiche del distretto addominale. Lo studio effettuato ha evidenziato che, per entrambi i fantocci, il rapporto contrasto-rumore aumenta se si utilizza la tecnica di ricostruzione iterativa. La seconda parte del lavoro di tesi è stata quella di effettuare una valutazione della riduzione della dose prendendo in considerazione diversi protocolli utilizzati nella pratica clinica, si sono analizzati un alto numero di esami e si sono calcolati i valori medi di CTDI e DLP su un campione di esame con FBP e con iDose4. I risultati mostrano che i valori ricavati con l'utilizzo dell'algoritmo iterativo sono al di sotto dei valori DLR nazionali di riferimento e di quelli che non usano i sistemi iterativi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cutaneous scleroderma is a chronic inflammatory disease of the dermal and subcutaneous connective tissue leading to sclerosis. Sclerosis of the skin can lead to dysmorphism, contractures and restrictions of movement.

Relevância:

20.00% 20.00%

Publicador: