989 resultados para indirizzo :: 714 :: Curriculum C: Risorse sotterranee fluide
Resumo:
Scopo di questa tesi é di evidenziare le connessioni tra le categorie monoidali, l'equazione di Yang-Baxter e l’integrabilità di alcuni modelli. Oggetto prinacipale del nostro lavoro é stato il monoide di Frobenius e come sia connesso alle C∗-algebre. In questo contesto la totalità delle dimostrazioni sfruttano la strumentazione dell'algebra diagrammatica. Nel corso del lavoro di tesi sono state riprodotte tali dimostrazioni tramite il più familiare linguaggio dell’algebra multilineare allo scopo di rendere più fruibili questi risultati ad un raggio più ampio di potenziali lettori.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
Si dimostra che una classe di trasformazioni espandenti a tratti sull'intervallo unitario soddisfa le ipotesi di un teorema di analisi funzionale contenuto nell'articolo "Rare Events, Escape Rates and Quasistationarity: Some Exact Formulae" di G. Keller e C. Liverani. Si considera un sistema dinamico aperto, con buco di misura epsilon. Se al diminuire di epsilon i buchi costituiscono una famiglia decrescente di sottointervalli di I, e per epsilon che tende a zero essi tendono a un buco formato da un solo punto, allora il teorema precedente consente di dimostrare la differenziabilità del tasso di fuga del sistema aperto, visto come funzione della dimensione del buco. In particolare, si ricava una formula esplicita per l'espansione al prim'ordine del tasso di fuga .
Resumo:
Il compressed sensing è un’innovativa tecnica per l’acquisizione dei dati, che mira all'estrazione del solo contenuto informativo intrinseco di un segnale. Ciò si traduce nella possibilità di acquisire informazione direttamente in forma compressa, riducendo la quantità di risorse richieste per tale operazione. In questa tesi è sviluppata un'architettura hardware per l'acquisizione di segnali analogici basata sul compressed sensing, specializzata al campionamento con consumo di potenza ridotto di segnali biomedicali a basse frequenze. Lo studio è svolto a livello di sistema mediante l'integrazione della modulazione richiesta dal compressed sensing in un convertitore analogico-digitale ad approssimazioni successive, modificandone la logica di controllo. Le prestazioni risultanti sono misurate tramite simulazioni numeriche e circuitali. Queste confermano la possibilità di ridurre la complessità hardware del sistema di acquisizione rispetto allo stato dell'arte, senza alterarne le prestazioni.
Resumo:
Nella Regione Emilia-Romagna, la zona delle conoidi ha una valenza strategica essendo la principale fonte di approvvigionamento idropotabile per le utenze civili, oltre che sostegno per le attività industriali ed agricole. All’interno di questo contesto ci si è soffermati sulla provincia di Piacenza, scegliendo come aree di studio le Conoidi del Trebbia e dell’Arda, per valutare le dinamiche di ricarica naturale attraverso l’identificazione della relazione che intercorre fra (i) l’entità dei deflussi superficiali riferiti ai corsi idrici che alimentano le conoidi, e (ii) il livello piezometrico nei rispettivi acquiferi. L’analisi è stata condotta applicando il modello Auto-Regressive Distributed Lag (ARDL).
Resumo:
Il lavoro di questa tesi ha previsto l'acquisizione e l'elaborazione di dati geofisici al fine di determinare la risposta sismica di tre siti della Rete Accelerometrica Nazionale (RAN), collocandosi all'interno del progetto sismologico S2-2014 Constraining Observations into Seismic Hazard gestito dal Dipartimento di Protezione Civile Nazionale e dall’Istituto Nazionale di Geofisica e di Vulcanologia. Tale necessità nasce dal fatto che il più delle volte le informazioni per la corretta caratterizzazione geofisica dei siti ospitanti le stazioni accelerometriche risultano essere insufficienti, rendendo così i dati acquisiti non idonei per l'utilizzo in sede di calcolo delle leggi di attenuazione dalle quali successivamente vengono derivate le mappe di pericolosità sismica a livello nazionale e locale. L'obbiettivo di questo lavoro di tesi è stato quello di determinare l'eventuale presenza di effetti di sito o effetti di interazione suolo-struttura, per tre stazioni ubicate in Friuli-Venezia Giulia (codici stazioni MAI, TLM1 e BRC), capaci di amplificare il moto del terreno nella parte di suolo compresa fra il bedrock sismico (inteso come strato che non amplifica) e il piano campagna. Le principali tecniche utilizzate sono le seguenti: HVSR ossia rapporto spettrale della componente orizzontale su quella verticale da misure di rumore ambientale acquisite e EHV ovvero rapporto spettrale della componente orizzontale su verticale da registrazione di terremoti scaricate dal database accelerometrico italiano ITACA. I risultati delle due tecniche sono stati poi confrontati al fine di verificare un'eventuale congruenza, portando alle seguenti conclusioni. La caratterizzazione della stazione TLM1 ha portato alla importante conclusione che il sito non è idoneo per l’acquisizione di dati accelerometrici da utilizzare per il calcolo di leggi predittive o di attenuazione. La stazione accelerometrica è ospitata all’interno di un box in lamiera su una collina nel comune di Verzegnis (UD). Il problema principale che riguarda questo sito è la vicinanza della diga Ambiesta e del relativo invaso. La stazione di BRC è collocata all’interno di una cabina di trasformazione dell’ENEL sul lato destro del torrente Cellina, al suo ingresso nel lago di Barcis (PN). Le condizioni topografiche della zona, molto impervie, non consentono la corretta acquisizione dei dati. Un ulteriore fattore di disturbo è dato dall’interazione suolo-struttura, causata dalla cabina ENEL in cui è alloggiata la strumentazione. La caratterizzazione della stazione MAI collocata all'interno di una cabina ENEL nel centro del comune di Majano (UD) ha portato alla conclusione che questa è l'unica delle tre stazioni considerate capace di acquisire dati utilizzabili per il processo di validazione per le stime di pericolosità sismica. Questo perché le condizioni topografiche dell’area, pianura con stratificazione 1D, hanno permesso di sfruttare a pieno le potenzialità delle metodologie utilizzate, consentendo anche la ricostruzione di profili di velocità delle onde di taglio S con i quali è stata assegnata la categoria C del suolo previsto dall'approccio semplificato presente nelle NTC08.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
Il presente lavoro di tesi si propone di esaminare i processi di contaminazione del suolo e delle acque sotterranee conseguenti ad un fenomeno di “oil spill”: con tale termine si vuole intendere un fenomeno di rilascio accidentale di sostanze chimiche, come il benzene, dovuto al danneggiamento di lunghe condotte onshore realizzate per trasferire, tali sostanze, anche per distanze di centinaia di chilometri. Sebbene le basse frequenze incidentali confermino che il trasporto in condotta rappresenta la modalità di movimentazione via terra più sicura per fluidi chimici, bisogna tuttavia tener presente che i quantitativi di sostanze che possono essere rilasciate da questi impianti sono molto elevati.In questo lavoro, si è partiti con l’esaminare un caso studio riportato in letteratura, relativo alla valutazione quantitativa del rischio ambientale legato a fenomeni di oil spill da condotte onshore [Bonvicini et al., 2014]. Si è considerato, in particolare, un singolo tratto di una lunga condotta industriale, in corrispondenza del quale si è ipotizzato il verificarsi di una rottura, con conseguente rilascio di contaminante nel sottosuolo. L’impianto in questione è finalizzato al trasporto di benzene (LNAPL), idrocarburo aromatico cancerogeno, fortemente pericoloso per l’ambiente e per l’uomo.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
Negli ultimi anni il mondo ha assistito ad un'espansione esponenziale del mercato mobile, un settore che ha rivoluzionato le nostre vite e le nostre abitudini. Parallelamente, sono entrati in commercio i primi dispositivi commerciali dell'era dell'Internet delle Cose (Internet-of-Things), un paradigma secondo il quale oggetti utilizzati quotidianamente possono dialogare tra loro mediante Internet al fine di migliorare la vita personale e i processi produttivi aziendali. Un'applicazione pratica di Internet-of-Things è costituita dai dispositivi indossabili (wearable) capaci per mezzo di sensori di raccogliere dati sanitari, ambientali e fisici attorno a noi. I dispositivi indossabili attualmente in commercio permettono di collegarsi tramite protocolli e standard come WiFi e Bluetooth ad altri dispositivi, siano essi indossabili, smartphone o computer. Da questo concetto nasce l’idea di far comunicare un indossabile con altri dispositivi utilizzati in un contesto aziendale. In questo documento verrà preso in considerazione un tassello fondamentale nella gestione delle risorse umane e della sicurezza: il controllo degli accessi in un edificio e lo sblocco di un varco, sia esso un tornello, una porta o una serranda. Verrà quindi analizzato e progettato un sistema che possa effettuare le operazioni di timbratura e di apertura di varchi dall'orologio Apple Watch e da iPhone collegandosi ad un terminale dedicato.
Resumo:
Il cancro della prostata (PCa) è il tumore maligno non-cutaneo più diffuso tra gli uomini ed è il secondo tumore che miete più vittime nei paesi occidentali. La necessità di nuove tecniche non invasive per la diagnosi precoce del PCa è aumentata negli anni. 1H-MRS (proton magnetic resonance spectroscopy) e 1H-MRSI (proton magnetic resonance spectroscopy imaging) sono tecniche avanzate di spettroscopia in risonanza magnetica che permettono di individuare presenza di metaboliti come citrato, colina, creatina e in alcuni casi poliammine in uno o più voxel nel tessuto prostatico. L’abbondanza o l’assenza di uno di questi metaboliti rende possibile discriminare un tessuto sano da uno patologico. Le tecniche di spettroscopia RM sono correntemente utilizzate nella pratica clinica per cervello e fegato, con l’utilizzo di software dedicati per l’analisi degli spettri. La quantificazione di metaboliti nella prostata invece può risultare difficile a causa del basso rapporto segnale/rumore (SNR) degli spettri e del forte accoppiamento-j del citrato. Lo scopo principale di questo lavoro è di proporre un software prototipo per la quantificazione automatica di citrato, colina e creatina nella prostata. Lo sviluppo del programma e dei suoi algoritmi è stato portato avanti all’interno dell’IRST (Istituto Romagnolo per lo Studio e la cura dei Tumori) con l’aiuto dell’unità di fisica sanitaria. Il cuore del programma è un algoritmo iterativo per il fit degli spettri che fa uso di simulazioni MRS sviluppate con il pacchetto di librerie GAMMA in C++. L’accuratezza delle quantificazioni è stata testata con dei fantocci realizzati all’interno dei laboratori dell’istituto. Tutte le misure spettroscopiche sono state eseguite con il nuovo scanner Philips Ingenia 3T, una delle machine di risonanza magnetica più avanzate per applicazioni cliniche. Infine, dopo aver eseguito i test in vitro sui fantocci, sono stati acquisiti gli spettri delle prostate di alcuni volontari sani, per testare se il programma fosse in grado di lavorare in condizioni di basso SNR.
Resumo:
La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.
Resumo:
Obiettivo dell'elaborato di tesi è il comprendere l'organizzazione di un azienda tipo al fine di ottimizzarla e renderla più efficiente. Per raggiungere questo obiettivo è stato progettato un sistema client server che prende in gestione le commissioni di un’azienda. Il sistema permette la suddivisione del lavoro, i progetti sono formati da moduli e i moduli composti da attività. C’è un capo progetto e un responsabile per ogni modulo secondo la gerarchia aziendale. Ogni qualvolta un impiegato effettua una mansione per un’attività segnala le ore svolte attraverso un report, costituendo così il timetracking. Il sistema è stato sviluppato per dispositivi Android.
Resumo:
The main purpose of ultrarelativistic heavy-ion collisions is the investigation of the QGP. The ALICE experiment situated at the CERN has been specifically designed to study heavy-ion collisions for centre-of-mass energies up to 5.5 per nucleon pair. Extended particle identification capability is one of the main characteristics of the ALICE experiment. In the intermediate momentum region (up to 2.5 GeV/c for pi/K and 4 GeV/c for K/p), charged particles are identified in the ALICE experiment by the Time of Flight (TOF) detector. The ALICE-TOF system is a large-area detector based on the use of Multi-gap Resistive Plate Chamber (MRPC) built with high efficiency, fast response and intrinsic time resolution better than 40 ps. This thesis work, developed with the ALICE-TOF Bologna group, is part of the efforts carried out to adapt the read-out of the detector to the new requirements after the LHC Long Shutdown 2. Tests on the feasibility of a new read-out scheme for the TOF detector have been performed. In fact, the achievement of a continuous read-out also for the TOF detector would not be affordable if one considers the replacement of the TRM cards both for hardware and budget reasons. Actually, the read-out of the TOF is limited at 250 kHz i.e. it would be able to collect up to just a fourth of the maximum collision rate potentially achievable for pp interactions. In this Master’s degree thesis work, I discuss a different read-out system for the ALICE-TOF detector that allows to register all the hits at the interaction rate of 1 MHz foreseen for pp interactions after the 2020, by using the electronics currently available. Such solution would allow the ALICE-TOF detector to collect all the hits generated by pp collisions at 1 MHz interaction rate, which corresponds to an amount four times larger than that initially expected at such frequencies with the triggered read-out system operated at 250 kHz for LHC Run 3. The obtained results confirm that the proposed read-out scheme is a viable option for the ALICE TOF detector. The results also highlighted that it will be advantageous if the ALICE-TOF group also implement an online monitoring system of noisy channels to allow their deactivation in real time.