967 resultados para fulminazione indiretta, sovratensione indotta, algoritmo genetico, posizionamento degli scaricatori, rete di distribuzione compatta


Relevância:

20.00% 20.00%

Publicador:

Resumo:

un' applicazione in grado di memorizzare e mappare tutti i punti dove è possibile collegarsi, in modo gratuito, ad internet usando il nostro Smartphone. Per tenere traccia di questi punti si utilizza un meccanismo in grado di determinare la posizione geografica del dispositivo mediante il quale l’utente si connette alla rete. Inoltre è possibile la condivisione di tutti i punti registrati su un database online per rendere pubbliche le proprie registrazioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesi di laurea tratta la valorizzazione degli scarti della lavorazione degli agrumi. Tutti i processi di trasformazione utilizzati nell’industria agrumaria danno origine a tre prodotti principali: succo, olio essenziale e pastazzo; il terzo, sottoprodotto a basso valore o scarto di lavorazione, è una biomassa vegetale costituita da scorze, detriti di polpa, semi e frutti di scarto. Questo lavoro si è concentrato su due aspetti fondamentali: lo studio dei possibili utilizzi del pastazzo di agrumi, che si può considerare una fonte di sostanze ad alto valore aggiunto, e la valorizzazione di tale sottoprodotto mediante digestione anaerobica per la produzione di biogas. La composizione chimica degli scarti della lavorazione degli agrumi offre ampie possibilità di utilizzazione: come alimento zootecnico, per la produzione di compost, per l’estrazione di pectina, fibre alimentari e oli essenziali, per il recupero di limonene e per produrre bioetanolo. Infine di recente il pastazzo è stato individuato come componente nella produzione di biogas, attraverso la digestione anaerobica; ciò risulta coerente con il quadro normativo riguardante gli incentivi per la produzione di biogas. E' stato analizzato un caso pratico, l’impianto di produzione di biogas alimentato a biomasse, situato in Sicilia, in contrada Nuova Scala a Mussomeli (CL); l’impianto ha una potenza di 999 KW ed è attivo dal 31 Dicembre 2012. In generale, affinchè si realizzi un corretto dimensionamento di un impianto di produzione di biogas, è necessario conoscere il potenziale metanigeno, che esprime la quantità di biogas metano massimo potenzialmente ottenibile da una biomassa, e la quantità di biomasse disponibili. In particolare, per l’impianto in questione, sono stati elaborati dati relativi alle analisi chimiche condotte sulle singole matrici in input all’impianto, sulla base delle quali è possibile dare un primo giudizio di fermentescibilità dei vari substrati e della rispettiva resa in biogas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro svolto è dedicato alla realizzazione ed implementazione di un sistema distribuito "smart" per il controllo degli accessi. Il progetto sviluppato è inquadrato nel contesto di "SPOT Software", che necessita di migliorare il processo aziendale di controllo accessi e gestione presenze al fine di aumentarne usabilità ed efficienza. Saranno affrontate in generale le tematiche di Internet of Things, Smart Building, Smart City e sistemi embedded, approfondendo il ruolo delle tecnologie di comunicazione NFC e BLE, al centro di questo lavoro. Successivamente sarà discussa la progettazione di ognuno dei tre nodi del sistema, motivando le scelte tecnologiche e progettuali: Web application, Smart device e Smartphone app.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of present study is to define the general framework of Merluccius merluccius population structure, to estimate the growth rate and to assess the recruitment dynamics of juveniles from Northern and Central Adriatic, through otoliths analysis. The otoliths of hake specimens collected during the MedITS trawl survey in the 2012 in GSA 17, were cleaned and 102 otoliths out of 506 were embedded, sectioned, grindined and polished to obtain frontal and sagittal sections. The whole sample were analysed under stereomicroscope and optical microscope, with camera and connected to PC provided of an image analyses program. The frequency analysis of size classes and age revealed that the species is dominated by hake with >200mm TL and > one year old. The fish average size of M. merluccius at the end of the first year of life is about 199 mm TL. Allometrics analyses between fish TL and Feret (major axis), MiniFeret (minor axis), Area, Perimeter, showed a direct proportionality among lengths. Among the 88 otoliths sections analysed, the number of daily increments read ranged from 86 to 206, within 55 and 175mm TL range. The age estimate ranged from about 2-3 to 9 months and the growth rate from 20.99 to 27.15mm TL. The hatch-date distribution, obtained by back calculation, showed that the hatching occurs in November-March. In conclusion, strong preventive measures are needed for hake adults because the success of this species seems to be linked to deep water ecosystem protection where big spawners dwell.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partire dalle osservazioni effettuate oggi dai moderni sensori satellitari, nelle regioni del visibile e del vicino infrarosso dello spettro elettromagnetico, è possibile estrarre informazioni sullo stato fenologico delle colture e caratteristiche proprie della chioma della vegetazione che, combinate all’uso di dati agro-metereologici, e seguendo opportune metodologie, consentono di ricavare mappe di fabbisogno idrico delle colture. Facendo convergere all’interno di un Sistema Informativo Geografico immagini satellitari ad alta risoluzione opportunamente elaborate, informazioni agrometeorologiche provenienti da stazioni di misura a terra e dati vettoriali contenenti i confini del territorio, è oggi pensabile l’implementazione di sistemi di supporto all’irrigazione che siano in grado di produrre informazioni, per la singola azienda agricola, sull’utilizzo ottimale dei volumi d’acqua irrigui necessari alle diverse colture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggetto del presente elaborato è l’analisi contrastiva di sentenze penali italiane, austriache e tedesche del più alto grado di giudizio. Le analisi sono condotte su tre corpora di sentenze, uno per ogni variante linguistica presa in considerazione, e si svolgono su due livelli: il primo prevede l’analisi degli elementi macro- e microstrutturali delle sentenze, mentre il secondo livello si concentra sugli elementi di coesione testuale con un’analisi statistica della sintassi e della semantica dei connettori testuali, la cui funzione principale è quella di costruire relazioni semantiche tra gli elementi costitutivi del testo. Con la prima analisi si vogliono mettere in risalto le differenze tra il tedesco giuridico della Germania e quello dell’Austria ed evidenziare quindi le differenti strategie traduttive che devono essere utilizzate, se si ha a che fare con varianti di una stessa lingua provenienti da due sistemi giuridici differenti. Per quanto riguarda, invece, l’analisi degli elementi di coesione testuale, il suo obiettivo è quello di verificare da una parte, se esistono delle differenze nell’uso dei connettori all’interno della lingua tedesca e dall’altra di vedere quali differenze possono esserci nell’uso dei connettori in italiano e in tedesco. Nel primo capitolo si introducono i concetti giuridici che stanno alla base del processo penale in Italia, Austria e Germania, per introdurre la materia di base dei testi oggetto dell’analisi. Nel secondo capitolo si espongono delle considerazioni relative al genere testuale della sentenza e ai fattori extra-testuali che condizionano la sua redazione. Nel terzo capitolo si espone l’analisi contrastiva degli elementi macro- e microstrutturali dei corpora di sentenze italiane, austriache e tedesche. Nel quarto capitolo, infine, si espone l’analisi sintattica e semantica dei connettori individuati nei corpora di sentenze.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nello studio di questa tesi è stata descritta una ricerca condotta allo scopo di fornire un contributo alla conoscenza della biodiversità analizzando la componente macrofaunistica subfossile e recente del Phylum Mollusca del Canale di Sicilia e del Golfo di Cadice. Tali organismi sono già da tempo noti in questi ambienti poiché associati a biocostruzioni a coralli bianchi presenti lungo i margini continentali atlantici e mediterranei i cui costituenti principali sono gli sclerattiniari coloniali Lophelia pertusa e Madrepora oculata. Tuttavia ben poco si conosce sull’ecologia di queste specie che si ritrovano spesso influenzate da scambi idrologici e biologici attraverso lo Stretto di Gibilterra. Nel corso di questo studio sono state analizzate 7 carote sedimentarie marine campionate durante diverse campagne oceanografiche: 6 carotaggi atlantici prelevati durante la campagna oceanografica Meteor nel Golfo di Cadice e 1 carota campionata nel Canale di Sicilia durante la campagna oceanografica MARCOS guidata dall’ISMAR-CNR di Bologna, sulla quale si concentra l’attenzione di questo lavoro. I dati raccolti sono stati analizzati in maniere quantitativa, per questo è stato utilizzato il software per analisi statistiche “Past3” e sono stati combinati con l’analisi qualitativa dei campioni in modo da ottenere il maggior numero di informazioni. Tra le analisi statistiche sono state effettuate il calcolo di tutti gli indici di dominanza, diversità, di equiripartizione e ricchezza specifica (Simpson, Shannon, Evenness e Margalef) e l’analisi multivariata NMDS (Non-metric Multi-Dimensional Scaling). Infine è stata effettuata l’analisi delle associazioni trofiche distribuite in una carota. Il risultato ha evidenziato un’elevata biodiversità per campioni prelevati in profondità e il ritrovamento di organismi appartenenti all’ultimo glaciale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato svolto presso il servizio di Fisica Sanitaria del Policlinico Sant'Orsola-Malpighi di Bologna. Lo studio si è concentrato sul confronto tra le tecniche di ricostruzione standard (Filtered Back Projection, FBP) e quelle iterative in Tomografia Computerizzata. Il lavoro è stato diviso in due parti: nella prima è stata analizzata la qualità delle immagini acquisite con una CT multislice (iCT 128, sistema Philips) utilizzando sia l'algoritmo FBP sia quello iterativo (nel nostro caso iDose4). Per valutare la qualità delle immagini sono stati analizzati i seguenti parametri: il Noise Power Spectrum (NPS), la Modulation Transfer Function (MTF) e il rapporto contrasto-rumore (CNR). Le prime due grandezze sono state studiate effettuando misure su un fantoccio fornito dalla ditta costruttrice, che simulava la parte body e la parte head, con due cilindri di 32 e 20 cm rispettivamente. Le misure confermano la riduzione del rumore ma in maniera differente per i diversi filtri di convoluzione utilizzati. Lo studio dell'MTF invece ha rivelato che l'utilizzo delle tecniche standard e iterative non cambia la risoluzione spaziale; infatti gli andamenti ottenuti sono perfettamente identici (a parte le differenze intrinseche nei filtri di convoluzione), a differenza di quanto dichiarato dalla ditta. Per l'analisi del CNR sono stati utilizzati due fantocci; il primo, chiamato Catphan 600 è il fantoccio utilizzato per caratterizzare i sistemi CT. Il secondo, chiamato Cirs 061 ha al suo interno degli inserti che simulano la presenza di lesioni con densità tipiche del distretto addominale. Lo studio effettuato ha evidenziato che, per entrambi i fantocci, il rapporto contrasto-rumore aumenta se si utilizza la tecnica di ricostruzione iterativa. La seconda parte del lavoro di tesi è stata quella di effettuare una valutazione della riduzione della dose prendendo in considerazione diversi protocolli utilizzati nella pratica clinica, si sono analizzati un alto numero di esami e si sono calcolati i valori medi di CTDI e DLP su un campione di esame con FBP e con iDose4. I risultati mostrano che i valori ricavati con l'utilizzo dell'algoritmo iterativo sono al di sotto dei valori DLR nazionali di riferimento e di quelli che non usano i sistemi iterativi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il rilascio di detriti d’usura metallici è una grave problematicità connessa ai sistemi protesici, e principalmente riguarda le protesi d’anca ad accoppiamento metallo su metallo in lega CoCr. La presenza di un livello di ioni Co nel siero che supera la soglia di tossicità è correlata a metallosi periprotesica eal fallimento del l’impianto. Recentemente è emersa un’altra casistica, presumibilmente connessa alla distribuzione e accumulo di questi ioni in tessuti di organi anche lontani dall’impianto, che si manifesta con una sintomatologia sistemica analoga a casi noti di avvelenamento da Cobalto. Nel contesto di questa nuova patologia sarebbe di grande interesse la possibilità di monitorare in-vivo la distribuzione del Cobalto rilasciato da protesi articolari, in organi o tessuti di pazienti che manifestano alti ivelli ionici di Co nel siero utilizzando metodiche non invasive come l’NMR. L’ipotesi sperimentale di applicabilità prende spunto dalle proprietà magnetiche che alcuni composti del Cobalto possono presentare nell’organismo. In questo lavoro sperimentale, nato dalla collaborazione tra il laboratorio NMR del DIFA dell’Università di Bologna e l’Istituto Ortopedico Rizzoli (IOR) di Bolgna, si presentano i risultati relativi allo studio di fattibilità condotto con diverse metodiche di rilassometria NMR su campioni biologici in presenza di Co. L’obiettivo riguarda la caratterizzazione delle proprietà di rilassamento con elettromagnete a temperatura ambiente e fisiologica, e la valutazione delle dinamiche molecolari dai profili NMRD ottenuti alle basse frequenze con metodica Fast Field Cycling, dei nuclei 1H di tali sistemi in presenza di Co.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si sono studiati e sviluppati i rivelatori di fotoni x per l’esperimento FAMU (Fisica degli Atomi Muonici gruppo 3 dell’INFN) che indaga sulla natura e la struttura del protone. I rivelatori sono stati assemblati e testati con elementi che rappresentano lo stato dell’arte nel campo dei rivelatori di radiazione (scintillatori LaBr3(Ce) e fotomoltiplicatori Hamamatsu™ Ultra Bi-Alcali). È stata anche studiata e sviluppata parte della catena di formatura del segnale. Questa è stata implementata su un chip FPGA dell’ALTERA™ con buoni risultati per quanto riguarda la qualità del filtro; le performance dell’FPGA non hanno consentito di raggiungere la velocità di 500MHz richiesta dall’esperimento costringendo l’implementazione ad una velocità massima di 320MHz.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo strumento MIPAS, operativo a bordo del satellite polare ENVISAT negli anni dal 2002 al 2012, ha misurato spettri di emissione nel medio infrarosso utilizzando la tecnica di scansione del lembo atmosferico. L'Agenzia Spaziale Europea (ESA), mediante un algoritmo di inversione ottimizzato, ha ricavato dagli spettri di MIPAS la distribuzione verticale di diversi composti chimici minoritari in stratosfera e alta troposfera. Tra questi composti figurano l'ozono (O3) e il CFC-11. Lo strato di ozono stratosferico svolge una funzione fondamentale come schermo della radiazione ultravioletta solare, altrimenti dannosa per gli esseri viventi sulla terra. D'altra parte, da alcuni decenni i cosiddetti cloro-fluoro carburi (CFC), tra cui la molecola di CCl3F (indicata sinteticamente con la sigla CFC-11) sono ritenuti responsabili della diminuzione generale dell'ozono stratosferico. Per questo motivo nel 1987 a Montreal è stato siglato un accordo internazionale per limitare l'immissione dei CFC in atmosfera. A partire dalla fine degli anni '80, in base a questo accordo, ci si aspetta quindi una progressiva riduzione dei CFC e un conseguente graduale recupero della concentrazione di ozono. Le misure di MIPAS, con copertura geografica globale, offrono una possibilità assai interessante per la verifica di queste tendenze attese. In questo lavoro di tesi, i profili verticali di frazione volumetrica (VMR) di ozono e CFC-11 ricavati dal processore di ESA versione 6.0 sono stati interpolati a livelli di pressione costante, raggruppati per bande di latitudine e mediati su intervalli di tempo mensili. Abbiamo quindi sviluppato un modello di tendenza parametrico che include un termine costante, uno lineare, due termini dell'oscillazione quasi biennale (QBO), un termine di flusso solare radio e diversi termini armonici in seno e coseno con periodo diverso. Il modello è stato quindi adattato mediante un algoritmo di minimizzazione di Levenberg-Marquardt alle medie mensili ottenute dalle misure di MIPAS per tutto il periodo che va da luglio 2002 ad aprile 2012. Le stime di tendenza ottenute per ozono e CFC-11 sono statisticamente significative e, a seconda della latitudine e del livello di pressione considerato, assumono una gamma di valori che va da -0.15 ppmv/decade a +0.44 ppmv/decade per l'ozono e una gamma di valori che va da -50.2 pptv/decade a +6.5 pptv/decade per il CFC-11. Abbiamo ottenuto tendenze per la maggior parte leggermente positive per l'ozono e quasi ovunque fortemente negative per il CFC-11, risultato in accordo con le disposizioni emanate a seguito del Protocollo di Montreal e in buon accordo anche con lavori precedentemente pubblicati in letteratura. Infine abbiamo stimato l'errore sistematico sulle tendenze ricavate, causato dalla deriva strumentale dovuta alla non-linearità della risposta dei rivelatori, che varia a seguito dell'invecchiamento dei rivelatori stessi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.