734 resultados para Vicente Di Grado
Resumo:
Gli ammassi di galassie (galaxy clusters) sono aggregati di galassie legate dalla forza di attrazione gravitazionale. Essi sono le più grandi strutture virializzate dell’Universo e la loro luminosità è dovuta alle galassie che li compongono e al cosiddetto intracluster medium (ICM), gas intergalattico in grado di raggiungere temperature di milioni di gradi. L’ICM è caratterizzato da emissioni sia di tipo termico che non termico, rispettivamente nella banda X e nella banda Radio, dovute soprattutto al meccanismo di bremsstrahlung termica e all’emissione di sincrotrone. Lo studio delle radiazioni emesse da questo gas primordiale ha permesso di studiare alcuni processi caratteristici nella dinamica degli ammassi di galassie, come i fenomeni di merger e cooling flow , e di ottenere quindi una maggiore comprensione della formazione ed evoluzione degli ammassi. Essendo le più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta infatti molto importante, in quanto fornisce un valido strumento per la formulazione di un Modello Cosmologico. Lo scopo di questo lavoro di tesi consiste in particolare nell'analisi di Aloni e Relitti radio, con maggiore approfondimento sui primi, e sulla ricerca di una correlazione della potenza Radio dei clusters sia con la loro luminosità nella banda X, che con la loro dimensione spaziale. La raccolta e l’elaborazione dei dati è stata svolta presso l’osservatorio di radioastronomia (ORA) situato nel CNR di Bologna.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
I campi di impiego della gomma da pneumatici fuori uso (PFU) nel settore stradale sono vari ed il numero di studi che comprovano l'utilizzo di questo materiale di riciclo è crescente. Il prodotto esaminato nella seguente ricerca è un legante bituminoso modificato (PmB tradizionale), al quale il poverino di gomma da PFU è aggiunto manualmente (meccanicamente) al miscelatore. La tecnologia è di tipo Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini, direttamente nel conglomerato. Ai fini di tale studio sono stati stesi 300 metri di SMA (Splitt Mastix Asphalt) lungo la S.P. 569 nel centro abitato di Zola Predosa (BO). Di questi una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Durante la stesa sono effettuate delle prove sull'esposizione dei lavoratori a inquinanti presenti in miscele bituminose con addizione di poverino da PFU e prove di esposizione ambientale. Sono state successivamente predisposte 3 diverse indagini sperimentali: la prima nell'arco di due giorni (02-03 Ottobre 2014) a due mesi dalla stesa del materiale (31 Luglio 2014), la seconda oltre sei mesi dalla stesa (14-15 Aprile 2015) e la terza ad 1 anno dalla prima sessione di controllo (Ottobre 2015). Nella prima campagna di indagine è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori. In tutte e tre le campagne di indagine sono state effettuate prove per la valutazione dell'emissione e dell'assorbimento acustico della pavimentazione tramite tecnologia Close Proximity Index (CPX). I dati raccolti riguardati le emissioni ambientali e l'inquinamento acustico sono stati poi analizzati al in di determinare il grado di deterioramento delle caratteristiche superficiali e di confrontare il comportamento dei diversi materiali all'usura.
Resumo:
I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.
Resumo:
Dalla volontà di proporre una soluzione al tema delle disabilità fisiche in ambiente cittadino evoluto e tecnologicamente avanzato, è nata l'idea di progettare un'applicazione in grado di generare visibilità attorno ad un tema che dovrebbe progredire nella stessa maniera dello sviluppo tecnologico. Lo scopo di questa tesi è proporre un tentativo concreto per entrare in contatto con una problematica di ordine sociale che lo sviluppo tecnologico dovrebbe tenere in maggiore considerazione. Si vuole cercare di sfruttare Internet come mezzo per enfatizzare un problema concreto come la mancanza di visibilità e coinvolgimento sociale attorno la tematica delle disabilità. I nativi digitali utilizzano costantemente sia social network che piattaforme dedite allo scambio di informazioni e alla creazione di visibilità. Vivono il mondo digitale come una vetrina nella quale potersi mettere in mostra e creare una reputazione. Il mondo digitale, in particolare quello dei social network viene visto dai più come la fonte principale di costruzione dei legami sociali, ciò è sicuramente vero, ma bisogna capire che tipo e quanto profonde possano essere tali relazioni. La mia generazione è cresciuta in un periodo ibrido, coinvolta sia nel mondo analogico sia in quello digitale, molti sono stati risucchiati da un vortice di superficialità e apparenze altamente correlati con gli effetti generati da una società capitalistica perfettamente identificabile nei profili che ogni giorno andiamo a creare per metterci in mostra nei social network. In prima analisi con la collaborazione del Dipartimento disabilità dell'Università di Bologna si era cercato di porre l'attenzione su un approccio più orientativo per venire in contro a problematiche del genere. Qualcosa che permettesse a tutti nella stessa maniera di vivere la realtà accademica e cittadina stimolando l'interazione degli studenti con socialità marginale.
Resumo:
Obiettivo di questa tesi è raccogliere e ordinare le informazioni disponibili sul plagio fra codici sorgente, con particolare attenzione alla classificazione dei tipi di plagio fra codici e all’analisi dei principali tool esistenti per l’individuazione automatica. Dall’ampia letteratura disponibile sull’argomento, emerge che la rivoluzione informatica ha suscitato nel mondo giuridico un profondo dibattito in merito alla definizione del software e agli strumenti di tutela ad esso connessi, perciò ho deciso di dedicare un capitolo anche alla riflessione sul contesto giuridico e normativo, in Italia e nel mondo. Poiché non esiste una bacchetta magica per combattere il plagio, è realistico pensare che utilizzare diverse tecniche fra loro complementari possa dare risultati migliori; alcuni approcci innovativi in tal senso, derivanti principalmente da ricerche effettuate nel mondo accademico, sono descritti nel capitolo conclusivo della tesi. Un altro aspetto del problema che mi ha colpito è la questione etica connessa al plagio. Molti studiosi universitari hanno realizzato sondaggi all’interno della comunità accademica per testare il grado di sensibilità al problema del plagio e proposto diverse soluzioni volte non solo a combattere il plagio ma anche a prevenirlo, puntando sullo sviluppo di una maggiore consapevolezza del problema negli accademici (sia studenti che docenti). Anche in ambito commerciale non mancano tentativi di sfuggire alla piaga del plagio, considerato a tutti gli effetti una forma di pirateria informatica. Alcuni di questi studi, i cui risultati offrono interessanti spunti di riflessione per il futuro, sono riportati nel capitolo dedicato alle conclusioni.
Resumo:
L'identificazione di un blazar è molto difficile, questo è un oggetto molto particolare e che ha un'attività molto ricca. Nella pratica l'identificazione di un blazar avviene confrontando la sua emissione in banda radio con la sua emissione in banda gamma, che sono entrambe proprie dei blazar. Il problema è che non si dispone di un telescopio in grado di rivelare con estrema precisione entrambe le bande, quindi si procede utilizzando i dati radio provenienti da un dato radiotelescopio e i dati in banda gamma provenienti da un altro telescopio. Quando le emissioni nelle due bande presentano, ad esempio, una variabilità simultanea, l'identificazione è certa. Ma questa minoranza di casi non è molto frequente e quindi spesso si procede con un'analisi probabilistica basata sulle posizioni delle sorgenti. Il lancio di Fermi nel 2008 ha portato ad un fortissimo aumento del numero di sorgenti gamma note e, fra queste, la maggior parte sono blazar. Una significativa frazione di queste sorgenti Fermi (circa il 30%) rimane non identificata. In questo lavoro vengono inizialmente caratterizzate le proprietà radio dei blazar e in particolare dei blazar gamma noti finora. In seguito verrà approfondita l'analisi delle sorgenti Fermi non identificate per stabilire una possibile compatibilità con le proprietà dei blazar e quindi per cercare di capire se queste sorgenti possano essere a loro volta dei blazar non ancora riconosciuti.
Resumo:
Il mondo degli smartphone, in particolare grazie all’avvento delle app, costituisce un settore che ha avuto negli ultimi anni una crescita tale, da richiedere l’introduzione di un nuovo termine in ambito finanziario: app economy. La crescente richiesta da parte del mercato di nuove opportunitá derivanti dal mondo delle applicazioni, ha aumentato sensibilmente il carico di lavoro richiesto alle software house specializzate,che hanno pertanto avuto la necessitá di adeguarsi a tale cambiamento. Per ovviare alle suddette problematiche, sono iniziati ad emergere due tool che consentono lo sviluppo di applicazioni multipiattaforma utilizzando un linguaggio ed un ambiente di sviluppo comuni. Tali sistemi consentono un risparmio in termini di tempi e costi, ma non sono in grado di competere con i tool nativi in termini di qualità del prodotto realizzato, in particolare per quanto concerne l'interfaccia grafica. Si propone pertanto un approccio che tenta di combinare i vantaggi di entrambe le soluzioni, al fine di ottimizzare la fluidità della UI, consentendo allo stesso tempo il riuso della logica applicativa.
Resumo:
La Sentiment analysis, nata nell'ambito dell’informatica, è una delle aree di ricerca più attive nel campo dell’analisi del linguaggio naturale e si è diffusa ampiamente anche in altri rami scientifici come ad esempio le scienze sociali, l’economia e il marketing. L’enorme diffusione della sentiment analysis coincide con la crescita dei cosiddetti social media: siti di commercio e recensioni di prodotti, forum di discussione, blog, micro-blog e di vari social network. L'obiettivo del presente lavoro di tesi è stato quello di progettare un sistema di sentiment analysis in grado di rilevare e classificare le opinioni e i sentimenti espressi tramite chat dagli utenti della piattaforma di video streaming Twitch.tv. Per impostare ed organizzare il lavoro, giungendo quindi alla definizione del sistema che ci si è proposti di realizzare, sono stati utilizzati vari modelli di analisi in particolare le recurrent neural networks (RNNLM) e sistemi di word embedding (word2vec),nello specifico i Paragraph Vectors, applicandoli, dapprima, su dati etichettati in maniera automatica attraverso l'uso di emoticon e, successivamente, su dati etichettati a mano.
Resumo:
La validità della legge di gravitazione di Newton, o ISL (dall'inglese inverse square law) è stata ampiamente dimostrata dalle osservazioni astronomiche nel sistema solare (raggio d'azione di circa 10^{7}- 10^{9} km). Gli esperimenti effettuati su scale geologiche (raggio d'azione tra cm e km), eredi dell'esperimento di Cavendish, sono stati capaci di fornire un valore sperimentale della costante G della ISL affetto però da un'incertezza consistente (la precisione con cui si conosce G è dell'ordine di grandezza di 10^{-4}). L'interesse nella determinazione di un valore più preciso della costante G è aumentato negli ultimi decenni, supportato dalla necessità di mettere alla prova nuove teorie di gravitazione non Newtoniane emergenti, e da un avanzamento tecnologico negli apparati di misura, che sono ora in grado di rilevare l'interazione gravitazionale anche su distanze molto brevi (al di sotto del mm). In questo elaborato vengono brevemente presentate alcune delle teorie avanzate negli ultimi decenni che hanno reso urgente la riduzione dell'incertezza sulla misura di G, elencando successivamente alcuni importanti esperimenti condotti per la determinazione di un valore di G ripercorrendone brevemente i metodi sperimentali seguiti. Tra gli esperimenti presentati, sono infine analizzati nel dettaglio due esperimenti significativi: La misura della costante gravitazionale effettuata a corto raggio con l'utilizzo di atomi freddi nell'ambito dell'esperimento MAGIA a Firenze, e l'osservazione della presunta variazione di G su scale temporali relativamente lunghe, effettuata mediante l'osservazione (della durata di 21 anni)della pulsar binaria PSR J1713+0747.
Resumo:
Cookgle e il prototipo di un motore di ricerca per ricette culinarie. Scopo della dissertazione e mostrare i punti chiave e i problemi riscontrati durante la progettazione dell'applicativo per l'architettura ad alto livello. Questo concept rappresenta il primo mattone delle successive costruzioni, volte ad ottenere un motore di ricerca per ricette culinarie in grado di indicizzare tutte le ricette presenti nel web.
Resumo:
L’attività di tesi, svolta presso i laboratori dell’Istituto CNR-IMM di Bologna, si è focalizzata sulla crescita tramite Deposizione Chimica da Fase Vapore di schiume di grafene - network tridimensionali costituiti da fogli di grafene interconnessi, in grado di unire le straordinarie proprietà del grafene ad una elevatissima area superficiale - e sulla loro caratterizzazione, con l’obiettivo di sintetizzare strutture 3D di grafene con una porosità controllata e buone caratteristiche strutturali. Nel primo capitolo della tesi vengono illustrate da un punto di vista generale le caratteristiche e proprietà salienti del grafene, sia dal punto di vista strutturale che fisico. il secondo capitolo è dedicato alle tecniche di produzione del materiale, dall’esfoliazione meccaniche, a quella chimica, per arrivare alle tecniche di crescita vere e proprie. Maggiore attenzione viene chiaramente riservata alla Deposizione Chimica da Fase Vapore, utilizzata poi nell’ambito dell’attività sperimentale svolta. Nel terzo capitolo vengono descritti in dettaglio tutti gli apparati sperimentali utilizzati, sia per la sintesi del materiale (il sistema CVD), che per la sua caratterizzazione (microscopia elettronica a scansione, diffrazione a raggi X, spettroscopia fotoelettronica a raggi X e Raman). Il quarto ed il quinto capitolo sono dedicati alla parte sperimentale vera e propria. Nel quarto si descrive e si discute il processo messo a punto per crescere strutture tridimensionali di grafene a partire da schiume metalliche commerciali, mentre nel quinto vengono infine descritti gli approcci originali messi a punto per la sintesi di strutture con porosità controllata. Nelle conclusioni, infine, oltre a tirare le somme di tutto il lavoro svolto, vengono delineate le prospettive applicative dei materiali prodotti e le attività che sono attualmente in corso relative alla loro caratterizzazione e al loro impiego.
Resumo:
Il presente lavoro riguarda lo studio delle colate detritiche, fenomeno che rappresenta un importante argomento di studio sia per la sua caratterizzazione e analisi a livello scientifico che per attuare una corretta pianificazione e gestione del territorio. Nell’ambiente alpino, ed in particolare nell’area Dolomitica, le colate detritiche rappresentano un fenomeno complesso, le cui caratteristiche di velocità ed intensità, congiuntamente alla difficile previsione temporale, determinano l’alto grado di pericolosità che espone a rischi elevati infrastrutture e persone. Il monitoraggio delle colate detritiche assume quindi una notevole importanza nella determinazione delle condizioni idrologiche e morfologiche che inducono la generazione e la propagazione di tali fenomeni. Il presente lavoro ha come obiettivo la caratterizzazione della risposta idrologica nella zona d’innesco di un canale detritico, localizzato nella Conca Ampezzana. La caratterizzazione è stata definita attraverso l’analisi dei dati ottenuti dal monitoraggio eseguito mediante una stazione di rilevamento appositamente progettata e realizzata.
Resumo:
Al giorno d’oggi quasi tutte le persone possiedono un mezzo motorizzato che utilizzano per spostarsi. Tale operazione, che risulta semplice per una persona, può essere compiuta da un robot o un autoveicolo in modo autonomo? La risposta a questa domanda è si, ma se ad una persona serve solo un po’ di pratica per guidare, questa azione non risulta altrettanto immediata per dei veicoli motorizzati. In soccorso ad essi vi è la Computer Vision, un ramo dell’informatica che, in un certo senso, rende un elaboratore elettronico in grado di percepire l’ambiente circostante, nel modo in cui una persona fa con i propri occhi. Oggi ci concentreremo su due campi della computer vision, lo SLAM o Simultaneous Localization and Mapping, che rende un robot in grado di mappare, attraverso una camera, il mondo in cui si trova ed allo stesso tempo di localizzare, istante per istante, la propria posizione all’interno di esso, e la Plane Detection, che permette di estrapolare i piani presenti all’interno di una data immagine.
Resumo:
Il principale componente non idrocarburico contenuto nel gas naturale è l’acqua che viene rimossa mediante assorbimento con glicole trietilenico, il processo di trattamento più comune nella produzione di gas naturale. La presenza di acqua libera nel gas deve essere rimossa totalmente, per evitare la formazione di condensa nelle condizioni di trasporto e di distribuzione più critiche cioè a pressione elevata e a bassa temperatura. Obiettivo di questa tesi è l’analisi delle cause e dei fenomeni che portano a rilevanti perdite di glicole (TEG) in impianti di disidratazione del gas naturale operanti con elevate concentrazioni di CO2 e H2S nel gas di processo. Le perdite, in relazione alle diverse condizioni operative e concentrazioni dei gas menzionati, possono arrivare a raggiungere valori pari a 3-4 volte l'entità attesa, con punte che raggiungono 10 volte tali valori. Il lavoro di tesi è stato focalizzato su un impianto attualmente in esercizio, situato in Arabia Saudita. L’attività è stata condotta presso la Comart di Ravenna, azienda specializzata nella progettazione di impianti nel settore Oil&Gas. Inizialmente sono state studiate le caratteristiche di un impianto di disidratazione di gas naturale mediante assorbimento con glicole trietilenico. Dopo l’analisi delle possibili fonti di perdita, la colonna di alimentazione del ribollitore (Still Column) e il relativo condensatore, sulla base dei dati operativi degli impianti, sembra essere il punto su cui si concentrano le perdite. Vengono presentati i dettagli costruttivi di tale colonna al fine di determinarne i possibili malfunzionamenti. Scopo della tesi sarà l'identificazione, partendo dall'attuale configurazione dell’impianto, delle cause che portano a tali valori di perdite e l'individuazione di una configurazione colonna/condensatore (con eventuali altri equipment necessari) in grado di minimizzare le perdite contenendo al minimo i costi aggiuntivi della soluzione.