962 resultados para Biblioteca nazionale centrale di Roma
Resumo:
L’elaborato di Tesi esamina gli strumenti proposti nella letteratura tecnica per effettuare un’analisi di rischio di incidente rilevante per le acque superficiali. In Italia, nel 1988, è stata introdotta una normativa apposita per la prevenzione dei grandi rischi industriali, che definisce l’indicente rilevante come: “un evento quale un’emissione, un incendio o un’esplosione di grande entità, dovuto a sviluppi incontrollati che si verificano durante l’attività di uno stabilimento e che dia luogo a un pericolo grave, immediato o differito, per la salute umana o per l’ambiente, all’interno o all’esterno dello stabilimento, e in cui intervengano una o più sostanze pericolose”. Tuttavia, in mancanza di metodologie comprensive per il calcolo del rischio ambientale di incidente rilevante, la normativa italiana richiede di valutare il rischio per l’ambiente solamente in maniera qualitativa. Vengono quindi analizzati in questo elaborato metodi semplificati di valutazione del rischio. Questi metodi sono descritti nel Rapporto ISPRA 2013, che elenca alcune metodologie formulate in ambito europeo e propone un nuovo metodo a indici, utilizzabile per una valutazione preliminare di analisi di rischio per i siti del territorio nazionale. In particolare, in questo elaborato vengono illustrati nel dettaglio: il metodo proposto dal predetto Rapporto, basato sull’Indice di Propensione al Rilascio di uno stabilimento e sulla sensibilità ambientale dei corpi idrici posti nelle sue immediate vicinanze; e un metodo a indici proposto dalle autorità svedesi, l’Environmental Accident Index, che fornisce un’analisi preliminare del rischio intrinseco di uno stabilimento. Vengono poi presi in rassegna software che implementino modelli di dispersione degli inquinanti in acqua, utilizzabili per la valutazione delle conseguenze ambientali di un rilascio che coinvolga un corpo idrico superficiale. Si analizza nel dettaglio ADIOS 2, software gratuito distribuito dalla National Oceanic and Atmospheric Administration, specifico per la modellazione della dispersione di idrocarburi in mari ed estuari. Per effettuare una validazione delle metodologie sopraelencate, se ne è considerata l’applicazione ad un caso di studio reale, costituito da un deposito costiero di prodotti petroliferi. Innanzitutto si è calcolato per il deposito l’indice EAI; si è poi applicato il metodo qualitativo proposto dal Rapporto ISPRA 2013 e si è effettuata la simulazione di un rilascio di gasolio in acqua con il software ADIOS 2. A conclusione del lavoro svolto è possibile affermare che l’indice EAI non è adatto agli stabilimenti a rischio di incidente rilevante, in quanto è pesato per stoccaggi di sostanze pericolose di piccole dimensioni. Invece, sia il metodo ad indici del Rapporto ISPRA che il software ADIOS 2 sono strumenti utili per una prima valutazione del rischio di contaminazione delle acque superficiali.
Il progetto delle pavimentazioni stradali in materiale lapideo: il caso del centro storico di Modena
Resumo:
Le vibrazioni indotte dal traffico costituiscono un problema diffuso a causa degli effetti indesiderati che possono generare a lungo termine sulle opere architettoniche e sulle persone. L’intensità di questi fenomeni dipende da numerosi fattori tra cui le caratteristiche dei veicoli (massa, tipo di sospensioni), le relative velocità, la regolarità del piano viabile, le proprietà del terreno di sottofondo, la struttura degli edifici esposti e, soprattutto, le caratteristiche meccaniche dei materiali costituenti la pavimentazione. Il problema è particolarmente sentito nei centri storici delle aree urbane per la presenza di edifici di grande valore artistico e per l’impiego di pavimentazioni di tipo lapideo, caratterizzate da numerose irregolarità di superficie: nasce, quindi, l’esigenza di individuare criteri progettuali e tecnologie costruttive mirati all’attenuazione di questi fenomeni indesiderati e nocivi. A tal fine la presente tesi prevede: • una prima parte, che descrive il centro storico di Modena a partire da un quadro generale storico-morfologico e di pianificazione urbanistica, con particolare attenzione alle tipologie di pavimentazioni stradali ad elementi lapidei e ai materiali tradizionalmente in uso nel territorio modenese; • una seconda parte, che presenta il caso di studio di Piazza Roma e il relativo progetto di recupero per la pedonalizzazione dello spazio pubblico tuttora in corso di realizzazione. Quest'ultimo è stato analizzato da un punto di vista non solo teorico-descrittivo, ma anche pratico-sperimentale, seguendo l’esecuzione dei lavori in cantiere in collaborazione con il Settore Manutenzione e Logistica del Comune di Modena; • una terza parte, relativa al problema delle vibrazioni indotte dal traffico sulle pavimentazioni stradali ad elementi lapidei. Il problema è stato affrontato in termini prima generali, descrivendo i meccanismi di generazione, propagazione e ricezione delle vibrazioni, gli effetti di danneggiamento che possono provocare sulle costruzioni circostanti, le più diffuse tipologie di intervento note in letteratura. Successivamente è stato considerato il caso di Piazza Roma e, partendo dalla rilevazione sperimentale del quadro vibratorio degli edifici adiacenti alla sede stradale, è stata valutata l’efficacia di alcune soluzioni progettuali ai fini della riqualificazione dello stato di fatto.
Resumo:
Lo sviluppo di nuove tecnologie sempre più innovative e all’avanguardia ha portato ad un processo di costante rivisitazione e miglioramento di sistemi tecnologici già esistenti. L’esempio di Internet risulta, a questo proposito, interessante da analizzare: strumento quotidiano ormai diventato alla portata di tutti, il suo processo di rivisitazione ha portato allo sviluppo dell’Internet Of Things (IoT), neologismo utilizzato per descrivere l'estensione di Internet a tutto ciò che può essere trasformato in un sistema elettronico, controllato attraverso la rete mondiale che oggi può essere facilmente fruibile grazie all’utilizzo di Smartphone sempre più performanti. Lo scopo di questa grande trasformazione è quello di creare una rete ad-hoc (non necessariamente con un accesso diretto alla rete internet tramite protocolli wired o wireless standard) al fine di stabilire un maggior controllo ed una maggiore sicurezza, alla quale è possibile interfacciare oggetti dotati di opportuni sensori di diverso tipo, in maniera tale da condividere dati e ricevere comandi da un operatore esterno. Un possibile scenario applicativo della tecnologia IoT, è il campo dell'efficienza energetica e degli Smart Meter. La possibilità di modificare i vecchi contatori del gas e dell’acqua, tutt’oggi funzionanti grazie ad una tecnologia che possiamo definire obsoleta, trasformandoli in opportuni sistemi di metring che hanno la capacità di trasmettere alla centrale le letture o i dati del cliente, di eseguire operazioni di chiusura e di apertura del servizio, nonché operazioni sulla valutazione dei consumi, permetterebbe al cliente di avere sotto controllo i consumi giornalieri. Per costruire il sistema di comunicazione si è utilizzato il modem Semtech SX1276, che oltre ad essere low-power, possiede due caratteristiche rivoluzionarie e all’avanguardia: utilizza una modulazione del segnale da trasmettere innovativa e una grande capacità di rilevare segnali immersi in forti fonti di rumore ; la possibilità di utilizzare due frequenze di trasmissione diverse, 169 MHz e 868MHz.
Resumo:
Il recente sviluppo commerciale di smartphone, tablet e simili dispositivi, ha portato alla ricerca di soluzioni hardware e software dotate di un alto livello di integrazione, in grado di supportare una potenza di calcolo e una versatilità di utilizzo sempre più crescenti, pur mantenendo bassi i consumi e le dimensioni dei dispositivi. Questo sviluppo ha consentito parallelamente a simili tecnologie di trovare applicazione in tanti altri settori, tra i quali quello biomedicale. Il lavoro esposto in questa tesi si inserisce nel contesto appena descritto e, in particolare, consiste nello sviluppo di un sistema WBAN ideato per garantire maggiore flessibilità, controllo e personalizzazione nella terapia riabilitativa dei pazienti affetti da Morbo di Parkinson. In questo campo è stata dimostrata l'efficacia, in termini di miglioramento delle condizioni di vita dell'individuo, dell'esercizio fisico e in particolare di una serie di fisioterapie riabilitative specifiche. Tuttavia manca ancora uno strumento in grado di garantire più indipendenza, continuità e controllo,per le persone affette da MP, durante l'esecuzione di questi esercizi; senza che sia strettamente necessario l'intervento di personale specializzato per ogni seduta fisioterapeutica. Inoltre manca un sistema che possa essere comodamente trasportato dal paziente nelle attività di tutti i giorni e che consenta di registrare e trasmettere eventi particolari legati alla patologia, come blocchi motori e cadute accidentali. Il presente lavoro di tesi tratta della realizzazione di un Firmware per la gestione di un Nodo Centrale che funge da master in una rete WBAN a tre nodi. L'obbiettivo è quello di integrare in tale firmware le funzioni di acquisizione dati dai sensori on-board, comunicazione tra i nodi della rete e gestione delle periferiche hardware secondarie; in particolare per lo sviluppo è stato usato un Sistema Operativo Real-Time (RTOS) del quale sono esposti vantaggi e svantaggi dell’utilizzo.
Resumo:
L'opera preliminarmente in una accurata analisi della configurazione e delle interrelazioni dei sistemi energetici presenti nello stabilimento produttivo Caviro Enomondo. Successivamente è svolto un approfondimento del quadro normativo relativo all’incentivazione delle fonti energetiche rinnovabili non fotovoltaiche e delle sue recenti evoluzioni, andando ad identificare tutte le possibili vie di sviluppo per impianti di produzione di biogas promosse a livello nazionale e che possono potenzialmente trovare applicazione nell’impianto in esame; questo studio è effettuato con particolare attenzione alla opportunità di effettuare un upgrading di tale impianto per realizzare ad una raffinazione totale o parziale del biogas a biometano. A seguito dell’identificazione della tipologia di prodotto e/o di processo che offre le migliori prospettive per una implementazione industriale e delle caratteristiche chimico-fisiche che questo deve rispecchiare, si prosegue quindi individuando lo schema impiantistico ottimale per adeguare l’attuale sistema di produzione al nuovo target. A seguire, approfondendo lo studio delle varie tecnologie disponibili ad oggi allo stato dell’arte, si identificano quelle maggiormente promettenti, mettendone in evidenza peculiarità positive e negative di ciascuna e giungendo alla identificazione della combinazione ottimale in termini di economicità, capacità produttiva, sicurezza ed impatto ambientale. Una volta individuate le caratteristiche di massima dell’impianto si procede ad un dimensionamento più accurato dello stesso andandone a valutare anche entità dei costi di investimento e di gestione. Attraverso l’instaurazione di contatti con ditte specializzate operanti nel settore industriale di riferimento, si giunge all’individuazione specifica dei modelli dei macchinari ed impianti richiesti. Il progetto si sviluppa successivamente andando a valutare le possibili modalità di utilizzo del prodotto finale che offrono maggiori prospettive di valorizzazione per l’azienda, identificando le varie soluzioni e gli interventi necessari per ciascuna di essa. La parte successiva dell’elaborato consiste in un confronto, in termini di valutazioni economiche, sull’opportunità di ognuna delle soluzioni prospettate, tenendo in considerazione i costi di investimento, di esercizio, i ricavi, e la componente incentivante. Si va infine a concludere il progetto proponendo una road-map per la realizzazione della soluzione che si evidenzia come la più promettente, con crono-programma degli interventi da eseguire, e aspettative di sviluppo a medio-lungo termine dell’investimento.
Resumo:
Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.
Resumo:
Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.
Resumo:
Lo studio effettuato riguarda l’accrescimento giornaliero della Sardina pilchardus, (Walbaum, 1792) tramite la lettura degli anelli di crescita giornaliera negli otoliti. Nel Mediterraneo centrale il lavoro svolto è il primo di questo tipo su S. pilchardus. Il campionamento è avvenuto durante la campagna oceanografica "Anchevatir 2012", 69 otoliti sono stati estratti da esemplari con lunghezza totale compresa tra 7 ed 12.5 cm e successivamente sottoposti ad inclusione, sezionamento e levigatura per la realizzazione di sezioni sottili. Sull’intero campione è stata stimata l’età con due metodi: lettura degli anelli giornalieri sotto microscopio e conteggio dei microincrementi tramite analisi d’immagine. L’età stimata è compresa tra i 90 e 230 giorni, tuttavia la maggior parte degli individui presenta un’età tra i 120 e 150 giorni. Inoltre è stata determinata la data di nascita degli esemplari, avvenuta tra Dicembre 2011 e Febbraio 2012. In seguito è stata condotta un’analisi della media dell’ampiezza degli incrementi per descrivere i pattern di crescita giornaliera: l’andamento risultante è crescente con il procedere dell’età fino a circa il 50° giorno, poi si stabilizza fino al 150°, infine i valori medi decrescono. La backcalculation ha permesso di stimare il tasso di accrescimento giornaliero della lunghezza del corpo. Sono state analizzate tre serie distinte per data di nascita (Dicembre 2011, Gennaio 2012 e Febbraio 2012); queste hanno mostrato pattern di accrescimento analogo. La crescita iniziale stimata è di 0.2 mm/d, raggiunge 0.6 mm/d intorno al 40° giorno, ed oltre il 100° si è osservato un decremento nell’accrescimento giornaliero, soprattutto nella serie di Dicembre. Le differenze più rilevanti nei pattern delle tre serie mensili sono state riscontrate nei valori medi fra Dicembre e Febbraio. L’analisi della temperatura media superficiale ha permesso di ipotizzare che questa crescita maggiore degli individui nati in Febbraio sia collegata all’aumento di temperatura registrato da Marzo in poi. Tale risultato suggerisce che le condizioni ambientali e quindi i ritmi metabolici e d’accrescimento nei mesi successivi a Febbraio sono più favorevoli rispetto ai mesi invernali.
Resumo:
Il seguente lavoro di tesi descrive un modello fisico di nana bianca all'equilibrio partendo da dati empirici tipici per tali stelle. Si schematizza la stella come una sfera di gas He completamente ionizzato di densità uniforme, a temperatura T=const e soggetta ad un potenziale gravitazionale centrale. Il gas si costituisce di una parte degenere relativistica (elettroni) ed una parte classica ideale (gli ioni). Si procede ricavando le relazioni essenziali per determinare le proprietà di un gas di Fermi degenere relativistico, mostrando come, al limite di Boltzmann, descrivano anche il caso classico. La trattazione teorica è progressivamente supportata dalle stime dei parametri caratteristici delle due componenti del gas per verificare le loro condizioni fisiche e stimare l'importanza dei rispettivi contributi all'intero sistema. Si procede quindi all'esposizione dell'equilibrio tra pressione degenere ed attrazione gravitazionale ponendo particolare attenzione alla relazione raggio-massa. Infine si discutono le condizioni entro le quali un sistema fisico con tali caratteristiche può sussistere, con esplicito riferimento al limite di Chandrasekhar.
Resumo:
Il presente lavoro è stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi del decadimento di un nucleo di Carbonio-12 eccitato in seguito ad una reazione nucleare. Più precisamente in questa tesi si studia il decadimento di un nucleo di Carbonio-12 che, interagendo con un altro nucleo di Carbonio-12, si eccita lasciando il bersaglio di Carbonio nello stato fondamentale. La reazione studiata è 12C + 12C a 95 MeV. L'analisi è stata effettuata selezionando, fra tutti gli eventi, quelli che hanno 3 particelle α nello stato finale. Ciò permette di mettere in evidenza alcuni stati eccitati del Carbonio-12, fra cui il cosiddetto stato di Hoyle, importante soprattutto per gli aspetti astrofisici. In particolare il modo di decadimento è legato alla probabilità di formazione, che è un punto importante nella formazione degli elementi nelle stelle. E' importante infatti poter determinare se il processo di decadimento è istantaneo, cioè il Carbonio emette tre particelle α contemporaneamente, oppure sequenziale, cioè il Carbonio emette in primo luogo una particella α ed un nucleo di Berillio-8, il quale a sua volta decade in due particelle α. Nel Capitolo 1 si introdurrà l'aspetto teorico e fenomenologico del problema, verranno descritte in breve le reazioni nucleari tra ioni pesanti con un approfondimento sui processi di decadimento del Carbonio eccitato. Nel Capitolo 2 saranno descritti gli apparati utilizzati per le misure: in particolare l'apparato GARFIELD utilizzato per la rivelazione delle particelle cariche emesse nel decadimento, ed il rivelatore Ring Counter (RCo) utilizzato soprattutto per la rivelazione delle particelle α di decadimento del proiettile eccitato. Si accenna anche alle tecniche usate per identificare le particelle α. Nel Capitolo 3 verrà descritta l'analisi dei dati effettuata ed in particolare verranno mostrati gli osservabili per poter discriminare il meccanismo di decadimento sequenziale o democratico. Verranno infine tracciate alcune conclusioni in base ai risultati raggiunti.
Resumo:
La rivelazione dei neutroni gioca un ruolo fondamentale sia nel campo della fisica nucleare di base che in diversi ambiti applicativi quali la produzione di energia in reattori a fissione, la sicurezza nazionale alle frontiere, la terapia e la diagnostica mediche. Negli anni passati la rivelazione di neutroni di bassa energia (nell'intervallo termico) si è basata principalmente sull'utilizzo di contatori proporzionali a $^3$He. Il grosso vantaggio di questi strumenti è la loro quasi totale inefficienza nella rivelazione di radiazione elettromagnetica, consentendo una caratterizzazione pulita dei flussi neutronici di bassa energia, anche quando, come spesso succede, sono accompagnati da un intenso fondo di raggi X e raggi gamma. La scarsa disponibilità di $^3$He ed il conseguente incremento del suo costo hanno stimolato, negli ultimi anni, numerosi programmi di sviluppo di nuovi rivelatori per neutroni termici in grado di rimpiazzare i troppo costosi contatori a $^3$He. In questo contesto si sono sviluppati da una parte il progetto ORIONE/HYDE dell'Istituto Nazionale di Fisica Nucleare (INFN), che punta allo sviluppo di scintillatori organici a matrice siliconica in grado di rivelare sia neutroni veloci che termici, dall'altra l'applicazione di tali sviluppi ad attività connesse con il Progetto SPES nell'ambito del PRIN intitolato Sviluppo di Rivelatori e tecniche d'analisi per la sperimentazione con i fasci radioattivi dei Laboratori Nazionali dell'INFN, con particolare riferimento a SPES. All'interno di una matrice scintillante organica (ricca quindi di nuclei di Idrogeno e Carbonio) opportunamente drogata per favorire il processo di scintillazione, viene disperso un ulteriore dopante ad alta sezione d'urto di cattura neutronica (tipicamente $^{10}$B o $^6$Li). Questo scintillatore risulta sensibile alla radiazione neutronica veloce che viene rivelata tramite i processi di urto elastico ed il successivo rinculo dei nuclei che causa l'emissione di luce di scintillazione. Inoltre grazie alle grandi sezioni d'urto dei processi di cattura neutronica da parte del materiale dopante e la successiva emissione di particelle cariche anche la sensibilità ai neutroni di bassa energia (lenti e termici) viene garantita. La matrice utilizzata (polifenil-dimetil silossano) ha ottime proprietà meccaniche e, a differenza di altri materiali utilizzati per la realizzazione di scintillatori per neutroni, non risulta tossica o dannosa per l'ambiente. Inoltre il costo del materiale utilizzato è notevolmente competitivo rispetto alle alternative attualmente in commercio. In questo lavoro di tesi verranno caratterizzati alcuni di questi nuovi scintillatori drogati con $^6$Li. Verrà analizzata la loro risposta in termini di resa di luce quando esposti a flussi di particelle cariche e raggi gamma e a flussi neutronici di bassa energia. I risultati verranno paragonati a quelli ottenuti con uno scintillatore commerciale standard a matrice vetrosa.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
Nei prossimi anni sia il Large Hadron Collider al CERN che i relativi esperimenti saranno oggetto di programmi di upgrade. Per i rivelatori una delle motivazioni dell’upgrade è l’invecchiamento che inevitabilmente ne peggiorerebbe le prestazioni in mancanza di interventi. Si sono studiati gli effetti dell’invecchiamentO del rivelatore di muoni a grande angolo di CMS sulla ricostruzione di eventi H→ 4μ: un canale centrale nel programma futuro di fisica delle alte energie e la cui identificazione è affidata essenzialmente al rivelatore di muoni. Benchè la ridondanza, insita nel progetto del rivelatore, riduca l’impatto dell’inefficienza locale sui risultati finali, si è osservato dalla simulazione che, mentre il 30% di hit persi si traduce nella perdita dell’8% di eventi H→4μ, il 30% di camere non funzionanti causa un perdita di eventi che può arrivare al 27%. Poichè la disattivazione di un’intera camera può essere l’effetto del danneggiamento dell’elettronica di lettura, la quale è attualmente situata nella caverna sperimentale ed esposta quindi alle radiazioni, questi risultati potrebbero indicare la necessità di prevedere nel programma di upgrade la sostituzione dell’elettronica con nuovi dispositivi da collocarsi fuori della caverna, al riparo dalle radiazioni.
Resumo:
Lo scopo di questo studio è quello di valutare come sono variati gli impatti dell’impianto di compostaggio Romagna Compost a seguito dell’intervento di ampliamento e adeguamento, che ha portato ad un’evoluzione impiantistica notevole: dal processo di compostaggio tradizionale ad un sistema integrato anaerobico-aerobico. Per fare ciò si è scelto di utilizzare la metodologia di valutazione del ciclo di vita Life Cycle Assessment (LCA). Il vantaggio di questa analisi, è quello di riuscire a considerare tutti gli aspetti del ciclo di vita dei diversi sotto-processi considerati, dal compostaggio vero e proprio, all’utilizzo di reagenti, combustibili e materiali ausiliari, dal trasporto e smaltimento dei flussi di rifiuti finali al recupero energetico. A tal proposito si è rivelata utile una ricerca bibliografica per individuare studi LCA applicati al campo d’interesse.Inoltre, è stato effettuato un riesame delle tecnologie utilizzate negli impianti di recupero dei rifiuti organici e del concetto di Best Available Techniques (BAT). Mediante l’analisi di inventario, è stato studiato in maniera approfondita l’impianto e le attività svolte al suo interno. Per quanto riguarda la valutazione degli impatti, eseguita con il metodo Recipe 2014, è stato preso in esame il periodo temporale dal 2007 al 2013, esaminando tutti gli anni di funzionamento. Nello specifico, ci si è posto l’obiettivo di valutare se e quanto l’introduzione del sistema di recupero energetico abbia portato ad un reale miglioramento del processo con una diminuzione complessiva degli impatti. Nella seconda fase dello studio, sono stati estesi i confini del sistema per valutare gli impatti associati al trasporto del rifiuto dal luogo di raccolta all’impianto Romagna Compost e alla diversa gestione dei rifiuti nell’ambito nazionale. La modellazione è stata effettuata con il programma di calcolo SimaPro e il database Ecoinvent, Infine, per convalidare i dati ottenuti è stato effettuata un’analisi di incertezza mediante il metodo Monte Carlo.
Resumo:
Negli ultimi anni Internet ha cambiato le modalità di creazione e distribuzione delle informazioni turistiche. Un ruolo fondamentale viene ricoperto dalle piattaforme di social media, tecnologie che permettono ai consumatori di condividere le proprie esperienze ed opinioni. Diventa necessario, quindi, comprendere i cambiamenti in queste tecnologie e nel comportamento dei viaggiatori per poter applicare strategie di marketing di successo. In questo studio, utilizzando Opinion Finder, un software spesso impiegato nel campo dell'opinion mining, si esamineranno da un punto di vista qualitativo i post e commenti estratti da alcuni profili degli enti di promozione turistica nazionale in Europa, dividendo l'analisi per fattori che possono influenzare il sentimento degli utenti. Attraverso i risultati ottenuti, si può dimostrare che l'analisi delle opinioni e del sentimento si presenta come un ottimo strumento per evidenziare possibili fenomeni utili per la pianificazione di strategie di marketing per gli enti. Studi futuri potrebbero migliorare la valutazione di questi dati attraverso la creazione di un corpus di apprendimento per il software che contenga testi relativi al mondo del turismo e permettendo ad Opinion Finder di incrementare la validità della classificazione del sentimento, contestualizzando le espressioni in maniera corretta.