494 resultados para Biomasse, combustione, particolato, emissioni, filtri
Resumo:
Progettazione del nuovo layout per un nuovo stabilimento produttivo, in cui il gruppo Fiorini Industries S.r.l., in un'ottica di espansione e miglioramento dei parametri tecnici e dei flussi aziendali, si insedia lasciando la sua storica sede produttiva. Questo bisogno nasce dall'impossibilità di espansione dello stabilimento odierno e dalla necessità di ridurre i costi di movimentazione dei materiali durante il ciclo di produzione. La tesi si colloca in questo contesto di necessità di verificare le prestazioni del lay-out attuale, valutandone le problematiche e le criticità al fine di potere identificare delle valide soluzioni di layout per la nuova sede produttiva dal punto di vista tecnico-economico e ambientale. Il CAPITOLO1 è volto ad inquadrare il problema affrontato nella situazione odierna; mettendo in evidenza la rilevanza del lay-out. Viene poi spiegato in maniera approfondita l'approccio di progettazione seguito. Al CAPITOLO 2 spetta la presentazione dell'azienda, della sua storia, della sua gamma di prodotti e dei suoi reparti di lavorazione. L'inquadramento aziendale è necessario al fine di capire le esigenze aziendali di cui si dovrà tenere conto durante lo svolgimento del lavoro. Nel CAPITOLO 3 si procede con l'analisi della situazione attuale, recuperando i dati di input necessari alla determinazione del mix produttivo offerto al mercato, quindi con l'analisi dei cicli produttivi, dei flussi e delle risorse impiegate per le movimentazioni. Il CAPITOLO 4 illustra il nuovo polo industriale del gruppo e presenta le alternative di lay-out individuate, che vengono analizzate dal punto di vista economico per individuare il possibile saving economico annuo rispetto alla situazione attuale. Per completezza di informazione vengono presentate anche aree che non vengono progettate tramite l'analisi tecnico economica (Blocco 2 e Uffici). Il capitolo termina con la scelta del nuovo layout per la nuova sede, dove vengono studiati i saving annui in base ai mezzi di movimentazioni attuali e quelli implementabili. L'ultima parte dell'elaborato valuta le emissioni di anidride carbonica dovute alle movimentazioni interne e valuta la possibile riduzione di emissioni di CO2 con il nuovo layout.
Resumo:
I rifiuti rappresentano un’opportunità di crescita sostenibile in termini di riduzione del consumo di risorse naturali e di sviluppo di tecnologie per il riciclo di materia ed il recupero energetico. Questo progetto di ricerca si occupa di valutare, attraverso l’approccio dello studio del ciclo di vita, la valorizzazione energetica di una particolare categoria di rifiuti: i fanghi derivanti dalla depurazione delle acque. Si è studiata la valorizzazione dei fanghi attraverso l’applicazione del Thermo Catalytic Re-forming (TCR)®, tecnologia che consente di trasformare i fanghi in un carburante per la produzione di energia elettrica (bioliquido). Le valutazioni sono effettuate per una linea di processo generale e due configurazioni progettuali declinate in due scenari. Il caso di studio è stato riferito al depuratore di S. Giustina (Rimini). Per la linea di processo, per ognuna delle configurazioni e i relativi scenari, è stato compilato il bilancio energetico e di massa e, conseguentemente, valutata l’efficienza energetica del processo. Le regole della Renewable Energy Directive (RED), applicate attraverso lo strumento ‘BioGrace I’, permettono di definire il risparmio di gas serra imputabile al bioliquido prodotto. I risultati mostrano che adottare la tecnologia TRC® risulta essere energeticamente conveniente. Infatti, è possibile ricavare dal 77 al 111% del fabbisogno energetico di una linea di processo generale (linea fanghi convenzionale e recupero energetico TCR®). Questo permette, quindi, di ricavare energia utile al processo di depurazione. La massima performance si realizza quando la tecnologia si trova a valle di una linea di trattamento fanghi priva di digestione anaerobica e se il biochar prodotto viene utilizzato come combustibile solido sostitutivo del carbone. La riduzione delle emissioni imputabile al bioliquido prodotto va dal 53 al 75%, valori che soddisfano il limite definito dalla RED del 50% di riduzione delle emissioni (2017) per ogni configurazione progettuale valutata.
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
L’utilizzo delle biomasse rappresenta oggi una delle vie più interessanti da percorrere nell’ambito di una chimica industriale maggiormente sostenibile, alternativa alla chimica tradizionale basata sulle risorse fossili. I carboidrati sono i costituenti maggioritari della biomassa e potrebbero rappresentare un’alternativa ideale al petrolio per la produzione dei building-blocks, molecole di partenza per lo sviluppo della filiera produttiva della chimica. Fra i building-blocks ottenibili dagli zuccheri vi è l’acido glucarico. I suoi usi sono molteplici ma suscita grande interesse soprattutto per la possibilità di essere utilizzato nella sintesi di diverse tipologie di polimeri. Attualmente la maggior parte dei metodi di sintesi di questa molecola prevedono l’utilizzo di ossidanti tossici o dannosi per l’ambiente come l’acido nitrico. Lo scopo di questo lavoro di tesi è stato lo studio di catalizzatori eterogenei per la sintesi di acido glucarico da D-glucosio utilizzando ossigeno puro come ossidante. Sono stati sintetizzati sistemi monometallici a base di oro e sistemi multimetallici contenenti oro ed altri metalli in lega. Tutti i catalizzatori sono stati preparati depositando i metalli sotto forma di nanoparticelle su carbone attivo. Lo studio dei catalizzatori è stato focalizzato sull’individuazione dei metalli e delle condizioni di reazione ottimali che permettano di aumentare la selettività in acido glucarico. Gli studi condotti hanno portato alla conclusione che è possibile ottenere acido glucarico a partire da D-glucosio con rese fino al 35% utilizzando catalizzatori a base di oro in presenza di ossigeno. Attualmente l’acido glucarico viene prodotto solo su piccola scala ma ulteriori sviluppi in questa direzione potrebbero aprire la strada allo sviluppo di un nuovo processo industriale per la sintesi di acido glucarico sostenibile sia da un punto di vista economico che ambientale.
Resumo:
In questo lavoro di tesi sperimentale si è sintetizzata e caratterizzata la prima classe di complessi tetrazolici di Ir(III) anionici con formula generale [Ir(C^N)2(L)2]-, in cui oltre ai leganti ciclometallanti ”C^N” quali 2-fenilpiridinato (ppy) o 2-(2,4-difluorofenil)piridinato (F2ppy), sono stati introdotti due anioni tetrazolato (L) come il 5-fenil tetrazolato (Tph) oppure 5-(4-cianofenil) tetrazolato (TphCN). I complessi di Ir(III) anionici ottenuti si sono mostrati intensamente fosforescenti, con emissioni centrate nella regione del blu o del verde (460 < λmax<520 nm). I derivati anionici sono stati poi combinati con complessi Ir(III) tetrazolici cationici in grado di fornire emissione nella regione del rosso (λmax > 650 nm), formando così i primi esempi di coppie ioniche (“soft salts”) a matrice puramente tetrazolica. In tutti i casi si è osservato come il colore emesso da parte dei soft salts sia il risultato di una vera propria sintesi additiva delle emissioni derivanti da componenti ioniche con proprietà fotoemittive differenti. La sostanziale assenza di fenomeni di energy o electron transfer tra la componente anionica e cationica e il giusto bilancio tra le emissioni blu o verdi e rosse si sono tradotte, in taluni casi, nell’ottenimento di luce bianca, con la possibilità di variare ulteriormente i colori emessi in seguito all’allontanamento dell’ossigeno molecolare disciolto nelle soluzioni dei soft salts stessi.
Resumo:
I carboidrati, come il D-glucosio, sono i principali costituenti della biomasse e potrebbero rappresentare un’alternativa concreta alla chimica tradizionale del petrolio per la produzione dei building-blocks, utili quest’ultimi per lo sviluppo della filiera produttiva della chimica industriale. Dal D-glucosio è possibile ottenere epimeri importanti per la medicina o zuccheri largamente utilizzati in campo alimentare come il D-fruttosio tramite isomerizzazione strutturale del D-glucosio. Attualmente, la maggior parte dei metodi di sintesi di questa molecole prevedono l’utilizzo enzimi, o la catalisi omogenea con impiego di grandi quantità di basi e acidi minerali dannosi per l’ambiente. Lo scopo di questo lavoro è stato lo studio di innovativi catalizzatori eterogenei capaci operare in soluzione acquosa la conversione acido catalizzata del D-glucosio in prodotti di epimerizzazione e isomerizzazione strutturale. I catalizzatori dei nostri test sono stati caratterizzati tramite tecniche BET, ATR-IR, DRUv-Vis e XRD. Lo studio, quindi, è stato focalizzato sulle valutazioni delle prestazioni catalitiche di questi sistemi e sull’individuazione, tramite caratterizzazione strumentale, degli ioni costituenti questi solidi responsabili delle alte selettività nelle reazioni di riarrangiamento strutturale del D-glucosio. Gli studi condotti hanno portato alla conclusione che, grazie all’utilizzo di questi sistemi inorganici è possibile ottenere con alte selettività prodotti di riarrangiamento strutturale del D-glucosio, evitando al contempo la degradazione del substrato che in genere accompagna queste reazioni in condizioni di catalisi acida. Ulteriori studi riguardanti questi catalizzatori apriranno con buone probabilità la strada allo sviluppo di un nuovo processo industriale per la sintesi di questi zuccheri derivati, rendendo possibile una via produttiva sostenibile da un punto di vista economico che ambientale.
Resumo:
Il lavoro di tesi è stato svolto presso l’azienda Ecosurvey® - 3000 Srl, con sede a Bologna. Ecosurvey® fornisce servizi e consulenze nel campo della geologia e delle scienze ambientali e opera in diversi ambiti, tra cui le bonifiche del suolo, del sottosuolo e delle acque sotterranee. L’inquinamento del suolo e del sottosuolo è, infatti, il contesto dello studio di questa tesi. Tale inquinamento è persistente: con riferimento ai fenomeni di contaminazione, il sottosuolo registra la storia industriale di un sito. L’approccio che tenta di coniugare i bisogni dell’uomo nella società con il rispetto dell’ambiente è lo sviluppo sostenibile, ovvero, secondo la World Commission on Environment and Development, uno sviluppo che soddisfa i bisogni del presente senza compromettere la possibilità delle generazioni future di soddisfare i propri. Tra i molti ambiti in cui si applica il concetto di sostenibilità, è da ricordare quello delle bonifiche dei siti contaminati. A tal proposito, l’United States Environmental Protection Agency nel 2008 ha introdotto il concetto di “green remediation” come la pratica del considerare tutti gli effetti ambientali di un’azione di bonifica, includendo nel processo opzioni in grado di minimizzarne l’impronta ambientale. Nel 2013 la società Battelle, con i servizi tecnici ambientali di U.S. Navy, e U.S. Army Corps of Engineers ha sviluppato un applicativo denominato SiteWiseTM per la valutazione degli impatti ambientali associati alle tecnologie di bonifica delle acque sotterranee. Nell’ambito di questa tesi, in riferimento ad un intervento di bonifica presso un impianto di produzione di bitumi in attività, contaminato da idrocarburi, idrocarburi aromatici e composti organo-clorurati, con l’applicativo sono stati esaminati i principali indicatori dell’impronta ecologica (emissioni di gas serra, di ossidi di azoto, di zolfo e di polveri sottili; consumi di acqua, suolo ed energia) per tre diverse opzioni di bonifica, effettuandone poi il confronto.
Resumo:
L’elaborato affronta i temi dello sviluppo sostenibile, dell’affrancamento dalle risorse fossili e della produzione di energetica capillare. Nell’ambito di un progetto di ricerca mirato allo sviluppo di un gassificatore downdraft di tipo Imbert da 20kWe alimentato a legno cippato, viene qui presentato l’avviamento della campagna sperimentale su un impianto pilota. Particolare attenzione viene rivolta alla biomassa e ai prodotti di gassificazione (char, tar e syngas), le cui caratterizzazioni hanno contribuito all’evoluzione impiantistica e protocollare, interamente descritte nel testo.
Resumo:
Ogni anno, a causa dell’utilizzo di combustibili fossili e della produzione di cemento, vengono rilasciate in atmosfera 35,7 × 109 tonnellate di CO2, il principale dei gas serra. Durante l’ultima Conferenza delle Parti della UNFCCC, tenutasi a Parigi e nota come COP-21, gli Stati membri hanno posto come obiettivo il raggiungimento delle “emissioni zero” entro la seconda metà del XXI secolo. Secondo le previsioni fornite dall’IPCC il raggiungimento di tale obiettivo porterebbe comunque la concentrazione atmosferica di CO2 a 430 – 530 ppm con un conseguente aumento di temperatura di 1.5-2°C. Se non si riuscisse a rispettare questo traguardo potrebbe rendersi necessaria la rimozione forzata di CO2 dall’atmosfera. Negli ultimi anni è stata riconosciuta ad alcuni ecosistemi, tra cui le praterie di fanerogame marine, la capacità naturale di sottrarre elevate quantità di CO2, e rimuoverle dall’ambiente sotto forma di carbonio organico, chiamato “Blue Carbon”, per lunghi periodi di tempo. Il principale obiettivo di questo lavoro è quello di stimare i quantitativi di “Blue Carbon” contenuto all’interno dei sedimenti e nella biomassa vegetale di una prateria di Posidonia oceanica. I risultati hanno permesso di quantificare, al variare della densità dei fasci fogliari della pianta, la percentuale di carbonio organico contenuta nei primi 40 cm di sedimento e quello contenuto nella biomassa vegetale. Queste percentuali sono state utilizzate per stimare i quantitativi totali di carbonio all’interno di una ristretta area della prateria, quella attorno allo scoglio di Molarotto. Per quest’area il contenuto in carbonio organico stimato per i sedimenti è risultato essere compreso tra 104,4 e 122,7 t C ha-1, mentre quello contenuto nelle fronde tra 3,65 e 6,31 t C ha-1. Utilizzando il software QGIS è stato infine possibile stimare la quantità totale (fronde + sedimento) di carbonio contenuto all’interno della prateria in generale. Questo è risultato essere di 716 tonnellate.
Resumo:
L’elaborato affronta la tematica della detonazione nel motore a combustione interna, al fine di individuare un modello che sia in grado di riprodurre il fenomeno in modo accurato, con la prospettiva di un uso a scopo predittivo. A tal proposito vengono presentati modelli basati su svariate metodologie: in particolar modo, accanto ai metodi basati sulle grandezze direttamente o indirettamente misurabili del motore ad accensione comandata, vengono presentati un metodo basato sull’applicazione delle reti neurali, una metodologia di controllo basata sull’approccio True Digital Control, e due metodi che si avvalgono di procedimenti di tipo puramente statistico (metodo dei minimi quadrati e metodo Monte Carlo) per ricavare alcune delle grandezze fondamentali per il calcolo della detonazione. Successivamente, dopo una breve parentesi sulle simulazioni di tipo 3D, vengono introdotti i modelli fisici zero-dimensionali. Uno di questi, basato su un indice (definito dal simbolo Kn) capace di dare una valutazione quantitativa del fenomeno, viene applicato ad un insieme di dati sperimentali provenienti dai test al banco di un motore Ducati 1200. I risultati dell’analisi vengono confrontati con le evidenze sperimentali, sottolineando la buona rispondenza delle simulazioni ad essi e di conseguenza la potenzialità di tali metodi, computazionalmente non onerosi e di rapida applicazione.
Resumo:
Individuare e conoscere la natura degli inquinanti atmosferici e disporre dei dati delle emissioni sono azioni fondamentali per formulare politiche ambientali incentrate sul miglioramento della qualità dell'aria e monitorarne l'efficacia. Sorge l'esigenza di un controllo costante della qualità dell'aria, processo che avviene utilizzando delle centraline di monitoraggio fisse sparse nelle vie delle maggiori città o nei pressi dei principali insediamenti industriali. Lo scopo di questo progetto è quello di realizzare una stazione di monitoraggio mobile al fine di aumentare la superficie di controllo, realizzando un oggetto dinamico capace di acquisire dati sull'inquinamento. Questo è stato fatto applicando ad un drone un sistema di sensori capaci di rilevare le variazioni dei livelli di concentrazione degli agenti inquinanti. Ciò permette di eliminare le stazioni di monitoraggio fisse, le quali rappresentano una spesa ingente. Inoltre, attraverso l'utilizzo di un drone, è possibile monitorare siti più vasti, permettendo un monitoraggio costante e ripetuto nel tempo. La prima parte dell'elaborato analizza il sistema Embedded utilizzato per l'acquisizione dei dati, concentrando l'attenzione prevalentemente sui moduli utilizzati. La seconda descrive quali sono i primi passi per cominciare ad utilizzare i sensori posti sulla Gases Board 2.0 e risponde ai dubbi più comuni su quali parametri di configurazione adottare per un avere una risposta adeguata, quale processo di calibrazione seguire o come trasformare i dati acquisiti, espressi in tensioni, in valori di concentrazione di gas. La terza parte illustra i test effettuati per verificare il corretto funzionamento del sistema completo, con l’esposizione delle problematiche individuate, e una presentazione delle alternative più valide per superarle.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.
Resumo:
In questo lavoro di tesi si è analizzato il problema di creare un sistema di assistenza allo shopping integrabile in applicazioni e-commerce web e mobile sviluppate con le tecnologie messe a disposizione da Marketcloud, ovvero un progetto che punta a fornire strumenti per la realizzazione, la manutenzione, la gestione, la diffusione e la pubblicizzazione di tali applicazioni limitando i costi e le problematiche di sviluppo a carico delle aziende che intendono fornire servizi di e-commerce. Dopo aver discusso gli aspetti principali del progetto Marketcloud, sono state analizzate le necessità delle aziende interessate allo sviluppo del sistema di assistenza in esame, così come le aspettative degli utenti (i clienti) finali, ed è stato discusso perché fosse necessario e preferibile, nel caso in esame, non utilizzare soluzioni già presenti sul mercato. Infine, è stata progettata ed implementata un’applicazione web che includesse tale sistema e che fosse immediatamente integrabile tra i servizi già sviluppati da Marketcloud, testandone risultati, prestazioni, problemi e possibili sviluppi futuri. Al termine del lavoro di implementazione, il sistema e l'applicazione garantiscono all'utente finale l'utilizzo di tre funzioni: ricerca per categoria, ricerca libera, recommendation di prodotti. Per gestire la ricerca libera, è stato implementato un sistema di filtri successivi, ed una rete neurale multi-livello dotata di un opportuno algoritmo di machine learning per poter apprendere dalle scelte degli utenti; per la recommendation di prodotti, è stato utilizzato un sistema di ranking (classificazione). Le prestazioni della rete neurale sono state oggetto di attenta analisi.
Resumo:
.NET Compiler Platform è un compilatore per i linguaggi C# e Visual Basic realizzato da Microsoft. L’innovazione apportata da tale strumento è l’introduzione di API che permettono di accedere al compilatore; in particolare, è possibile accedere alle strutture dati utilizzate al suo interno, quali simboli o AST, e controllare e/o modificare il processo di compilazione. Una parte di questo progetto, chiamato anche progetto Roslyn, è focalizzata sull’introduzione dello scripting per il linguaggio C#. In questa trattazione si è interessati a sperimentare le possibilità offerte da tale strumento nel campo dell’esecuzione dinamica di frammenti di codice. Gli obiettivi imposti si collocano nell’ambito della re-ingegnerizzazione e dello sviluppo di software. Tali obiettivi sono la re-implementazione dei filtri di selezione contenuti nel framework Phoenix, utilizzando le API di Roslyn per migliorarne le prestazioni, e la progettazione di un componente che realizzi una console per lo scripting C# dotata della possibilità di riferire dinamicamente librerie. Le API di compilazione si rivelano essere non propriamente adatte all’esecuzione immediata di frammenti di codice, nonostante ciò, è possibile, appoggiandosi alla reflection, utilizzarle per giungere a questo risultato. Lo scripting, invece, si rivela uno strumento dalle grandi potenzialità nel suddetto ambito.
Resumo:
Gli ammassi di galassie (galaxy clusters) sono aggregati di galassie legate dalla forza di attrazione gravitazionale. Essi sono le più grandi strutture virializzate dell’Universo e la loro luminosità è dovuta alle galassie che li compongono e al cosiddetto intracluster medium (ICM), gas intergalattico in grado di raggiungere temperature di milioni di gradi. L’ICM è caratterizzato da emissioni sia di tipo termico che non termico, rispettivamente nella banda X e nella banda Radio, dovute soprattutto al meccanismo di bremsstrahlung termica e all’emissione di sincrotrone. Lo studio delle radiazioni emesse da questo gas primordiale ha permesso di studiare alcuni processi caratteristici nella dinamica degli ammassi di galassie, come i fenomeni di merger e cooling flow , e di ottenere quindi una maggiore comprensione della formazione ed evoluzione degli ammassi. Essendo le più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta infatti molto importante, in quanto fornisce un valido strumento per la formulazione di un Modello Cosmologico. Lo scopo di questo lavoro di tesi consiste in particolare nell'analisi di Aloni e Relitti radio, con maggiore approfondimento sui primi, e sulla ricerca di una correlazione della potenza Radio dei clusters sia con la loro luminosità nella banda X, che con la loro dimensione spaziale. La raccolta e l’elaborazione dei dati è stata svolta presso l’osservatorio di radioastronomia (ORA) situato nel CNR di Bologna.