63 resultados para Diente primario
Resumo:
Il lavoro sperimentale condotto nell’ambito della presente tesi è stato svolto su un impianto pilota a flusso continuo con schema predenitro/nitro in scala di laboratorio, alimentato con refluo sintetico ed installato presso i laboratori della Sezione ACS PROT IDR - Gestione Risorse Idriche dell’ENEA (sede di Bologna). Le finalità della sperimentazione erano mirate ad una verifica preliminare sull’utilizzo di segnali indiretti, quali pH, ORP, DO, nel monitoraggio in tempo reale dei processi biologici, mirata alla possibilità di implementare un sistema di controllo automatico di un impianto di depurazione, capace di minimizzare i costi di gestione e in grado di garantire, in ogni caso, elevate efficienze depurative. Nel presente studio sono stati esaminati gli aspetti metodologici e tecnologici alla base dell’automazione di un impianto di trattamento di acque reflue, avendo il duplice obiettivo di garantire una buona qualità dell’effluente e un contestuale risparmio energetico. In particolare si è studiato un problema molto diffuso: il controllo della rimozione dell’azoto in un sistema a fanghi attivi con predenitrificazione per l’ossidazione congiunta di carbonio ed azoto, ponendolo in relazione con la variazione dei tempi di commutazione in un processo SBR. L’obiettivo primario della sperimentazione effettuata è stato quello di portare il sistema in un regime di equilibrio stazionario, in modo da poter definire delle condizioni di regime per le quali, ad un ingresso costante e noto, corrispondesse un’uscita altrettanto costante che mantenesse tali condizioni fino a quando non fosse cambiato l’ingresso e/o le condizioni al contorno. A questo scopo si è provveduto, in primo luogo, allo studio di un influente sintetico con cui alimentare l’impianto, di composizione tale da simulare in tutte le sue caratteristiche un refluo civile reale e, successivamente, alla valutazione di una configurazione impiantistica idonea per il raggiungimento dell’equilibrio dei processi. La prima parte della sperimentazione è stata dedicata all’avviamento dell’impianto, effettuando un monitoraggio continuo dell’intero sistema allo scopo di impostare i parametri operativi e in modo da ottenere condizioni stabili per effettuare le successive sperimentazioni.
Resumo:
Lo strumento in esame è il carbon footprint che ha lo scopo primario di calcolare l’impronta rilasciata in atmosfera dalle emissioni di gas ad effetto serra. Il carbon footprint è stato descritto ed esaminato in ogni suo aspetto pratico, strutturale e funzionale evidenziandone sia pregi da tenere in considerazione sia limiti da colmare anche attraverso il ventaglio di strumenti di misurazione ambientale che si hanno a disposizione. Il carbon footprint non verrà descritto unicamente come strumento di contabilità ambientale ma anche come mezzo di sensibilizzazione del pubblico o dei cittadini ai temi ambientali. Questo lavoro comprende un’indagine online degli strumenti di misura e rendicontazione delle emissioni di CO2 che sono sotto il nome di carbon footprint o carbon calculator. Nell’ultima parte della tesi si è applicato ad un caso reale tutto quello che è stato appreso dalla letteratura. Il lavoro è consistito nell’applicare lo strumento del carbon footprint ad un’azienda italiana di servizi seguendo la metodologia di calcolo prevista dalla norma ISO 14064. Di essa sono state contabilizzate le emissioni di CO2 generate dalle attività quotidiane e straordinarie sulle quali l’azienda ha un controllo diretto o comunque una responsabilità indiretta.
Resumo:
Con il presente lavoro di tesi si è studiata la possibilità di estrarre informazioni sugli andamenti dei processi biologici dall’osservazione dei segnali di pH, potenziale di ossido riduzione (ORP) e ossigeno disciolto (DO) nelle vasche di processo di un impianto a fanghi attivi a flusso continuo (predenitro/nitro) per verificare la possibilità di utilizzare questo tipo di sonde per lo sviluppo di sistemi per il controllo automatico e la gestione intelligente, eventualmente remota, degli impianti di depurazione. Il lavoro di sperimentazione è stato svolto su un impianto pilota a flusso continuo con schema predenitro – nitro, costruito ed installato presso i laboratori della sede Enea di Bologna (Sezione ACS PROT IDR - Gestione Risorse Idriche). L’obiettivo primario della sperimentazione è stato quello di portare il sistema in uno stato stazionario di equilibrio, così da poter stabilire delle condizioni di funzionamento note e costanti, riscontrabili anche nei segnali di riferimento. Tali condizioni sono state definite prendendo come riferimento un impianto reale noto, funzionante in condizioni di processo costanti e medie, definendo contestualmente test sperimentali che riproducessero condizioni riscontrabili sullo stesso impianto reale. Le condizioni del sistema sono state monitorate costantemente, attraverso il monitoraggio giornaliero dei processi, effettuato con attività di campionamento e di analisi, osservando costantemente i segnali indiretti.
Resumo:
ABSTRACT Il presente lavoro vuole introdurre la problematica del rigonfiamento del terreno a seguito di grandi scavi in argilla. Il sollevamento del terreno dopo lo scavo può passare inosservato ma sono numerosi i casi in cui il rigonfiamento dura per molti anni e addirittura decenni, Shell Centre, London, Lion Yard, Cambridge, Bell Common, London, ecc. Questo rigonfiamento il più delle volte è impedito dalla presenza di fondazioni, si genera quindi una pressione distribuita che se non considerata in fase di progetto può portare alla fessurazione della fondazione stessa. L’anima del progetto è la modellazione e l’analisi del rigonfiamento di grandi scavi in argilla, confrontando poi i risultati con i dati reali disponibili in letteratura. L’idea del progetto nasce dalla difficoltà di ottenere stime e previsioni attendibili del rigonfiamento a seguito di grandi scavi in argilla sovraconsolidata. Inizialmente ho esaminato la teoria e i fattori che influenzano il grado e la velocità del rigonfiamento, quali la rigidezza, permeabilità, fessurazione, struttura del suolo, etc. In seguito ho affrontato lo studio del comportamento rigonfiante di argille sovraconsolidate a seguito di scarico tensionale (scavi), si è evidenziata l’importanza di differenziare il rigonfiamento primario e il rigonfiamento secondario dovuto al fenomeno del creep. Il tema centrale del progetto è l’analisi numerica tramite Flac di due grandi scavi in argilla, Lion Yard, Cambridge, e, Bell Common, London. Attraverso una dettagliata analisi parametrica sono riuscito a trovare i migliori parametri che modellano il comportamento reale nei due casi in esame, in questo modo è possibile arrivare a stime e previsioni attendibili del fenomeno rigonfiante del terreno a seguito di grandi scavi. Gli scavi modellati Lion Yard e Bell Common sono rispettivamente in Gault Clay e London Clay, grazie a famosi recenti articoli scientifici sono riuscito a evidenziare la principali propietà che diversificano i due terreni in esame, tali propietà sono estremamente differenti dalle normali caratteristiche considerate per la progettazione in presenza di terreno argilloso; sono così riuscito a implementare i migliori parametri per descrivere il comportamento dei due terreni nei diversi modelli. Ho inoltre studiato l’interazione terreno-struttura, la pressione esercitata dal rigonfiamento del terreno è strettamente funzione delle caratteristiche di connesione tra fondazione superficiale e muro di sostegno, tale pressione non deve essere ignorata in fase progettuale poichè può raggiungere importanti valori. Nello scavo di Lion Yard, considerando la presenza delle fondazioni profonde ho evidenziato il fatto che il rigonfiamento crea una forza distribuita di taglio tra i pali di fondazione ed il terreno, anche tale sollecitazione dovrebbe essere considerata ai fini della progettazione. La problematica non si ferma solo sull’interazione terreno-fondazioni, infatti durante gli scavi di importanti fondazioni londinesi lo scarico tensionale ha creato uno spostamento significativo positivo verso la superfice di tratti di tunnel della metropolita, questo fenomeno può creare seri problemi di sicurezza nella rete dei trasporti pubblici. Infine sono stati messi a confronto i risultati del programma Flac con quelli di metodi semplificati, ho trovato che utilizzando il metodo iterativo di O’Brien i risultati sono simili alla realtà e il tempo di calcolo è molto inferiore di quello richiesto utilizzando Flac, 2-3 giorni. In conclusione posso affermare che grazie ad una dettagliata analisi parametrica è stato possibile stimare il rigonfiamento del terreno, argilla sovraconsolidata, nei due casi analizzati.
Resumo:
La presente Tesi di Laurea Specialistica considera, partendo da un'analisi della normativa vigente e delle procedure aziendali interne, il Sistema di Gestione Integrato Qualità Sicurezza Ambiente (SGI QSA) di HERA SpA con particolare attenzione alle tematiche relative alla Prevenzione e Protezione sul luogo di lavoro in riferimento al Testo Unico sulla sicurezza (D.Lgs 81/2008) . Nello specifico, l'elaborato si basa sull'esperienza maturata durante cinque mesi di stage effettuati presso l'ufficio "Servizio Prevenzione e Protezione" della Struttura Operativa Territoriale (SOT) Bologna. Durante la mia permanenza in HERA SpA, ho avuto modo di osservare e prendere parte alle attività quotidianamente svolte sia in ufficio che presso gli impianti dislocati nel territorio della provincia di Bologna con particolare riguardo alla raccolta, gestione e fruibilità dei dai inerenti la sicurezza dei luoghi di lavoro. Nell'ambito dello stage, ho avuto anche la possibilità , estremamente formativa, di prendere visione dei processi, delle tecnologie e delle modalità operative sottostanti l'erogazione di servizi da parte di una Multiutility; acquisire consapevolezza e know how in merito alle energie messe in campo per effettuare attività quali la raccolta e lo smaltimento di rifiuti piuttosto che rendere disponibile alle utenze la fornitura di acqua e gas. Ritengo che questo possa darmi un valore aggiunto sia da un punto di vista professionale che da un punto di vista umano. Scopo primario di questa trattazione è effettuare l'istantanea di un'azienda complessa e in rapida evoluzione come HERA a partire della Salute e Sicurezza dei Lavoratori con l'obiettivo di indicare le attività eseguite durante lo stage e il contributo fornito allo sviluppo e al mantenimento del SGS (Sistema di Gestione per la Salute e la sicurezza). Per meglio evidenziare la diversa natura delle informazioni riportate, l'elaborato risulta diviso in due parti fondamentali: La I PARTE riguarda lo studio della normativa che regola il settore con particolare riferimento al TUSL Testo Unico per la Sicurezza sui Luoghi di Lavoro (norma vigente in Italia) e allo standard britannico OHSAS 18001 a cui possono fare riferimento le organizzazioni che intendono certificare il proprio sistema di gestione in materia di sicurezza. In seguito si andranno ad analizzare le norme ISO 9001e ISO14001 che riguardano rispettivamente la possibilità di certificare il proprio sistema di gestione in merito a Qualità del servizio e tutela dell'Ambiente. Infine saranno proposte alcune riflessioni riguardanti la necessità di sviluppare un sistema di gestione integrato e certificato che permetta di avere una visione unitaria di Qualità Sicurezza e Ambiente. Nella II PARTE si entrerà nel merito delle attività svolte dall'ufficio Prevenzione e Protezione: a partire dalle procedure aziendali che fungono da punto di contatto fra gli obblighi normativi e la necessità di regolare l'operatività dei lavoratori, saranno descritte le mansioni che mi sono state affidate e le attività svolte durante lo stage.
Resumo:
La crittografia ha sempre rivestito un ruolo primario nella storia del genere umano, dagli albori ai giorni nostri, e il periodo in cui viviamo non fa certo eccezione. Al giorno d'oggi, molti dei gesti che vengono compiuti anche solo come abitudine (operazioni bancarie, apertura automatica dell'auto, accedere a Facebook, ecc.), celano al loro interno la costante presenza di sofisticati sistemi crittografici. Proprio a causa di questo fatto, è importante che gli algoritmi utilizzati siano in qualche modo certificati come ragionevolmente sicuri e che la ricerca in questo campo proceda costantemente, sia dal punto di vista dei possibili nuovi exploit per forzare gli algoritmi usati, sia introducendo nuovi e sempre più complessi sistemi di sicurezza. In questa tesi viene proposto una possibile implementazione di un particolare tipo di attacco crittoanalitico, introdotto nel 2000 da due ricercatori dell'Università "La Sapienza" di Roma, e conosciuto come "Crittoanalisi Logica". L'algoritmo su cui è incentrato il lavoro è il Data Encryption Standard (DES), ostico standard crittografico caduto in disuso nel 1999 a causa delle dimensioni ridotte della chiave, seppur tuttora sia algebricamente inviolato. Il testo è strutturato nel seguente modo: il primo capitolo è dedicato ad una breve descrizione di DES e della sua storia, introducendo i concetti fondamentali con cui si avrà a che fare per l'intera dissertazione Nel secondo capitolo viene introdotta la Crittoanalisi Logica e viene fornita una definizione della stessa, accennando ai concetti matematici necessari alla comprensione dei capitoli seguenti. Nel capitolo 3 viene presentato il primo dei due software sviluppati per rendere possibile l'attuazione di questo attacco crittoanalitico, una libreria per la rappresentazione e la manipolazione di formule logiche scritta in Java. Il quarto ed ultimo capitolo descrive il programma che, utilizzando la libreria descritta nel capitolo 3, elabora in maniera automatica un insieme di proposizioni logiche semanticamente equivalenti a DES, la cui verifica di soddisfacibilità, effettuata tramite appositi tools (SAT solvers) equivale ad effettuare un attacco di tipo known-plaintext su tale algoritmo.
Resumo:
L’alta risoluzione nel telerilevamento termico (Thermal Remote Sensing) da aereo o satellitare si rivela molto importante nell’analisi del comportamento termico delle superfici, in particolare per lo studio dei fenomeni climatici locali dello spazio urbano. La stato termico dell'ambiente urbano è oggi motivo di grande interesse per ricercatori, organi istituzionali e cittadini. Uno dei maggiori campi di studio del comportamento termico urbano interessa il problema energetico: la riduzione dei consumi e delle emissioni di CO2 è un obiettivo primario da perseguire per uno sviluppo sostenibile, spesso supportato da criteri legislativi e progetti comunitari. Su scala differente e con caratteristiche differenti, un altro degli argomenti che scuote da anni e con notevole interesse la ricerca scientifica, è il fenomeno termico urbano che prende il nome di isola di calore; questa si sviluppa non solo in conseguenza al calore sensibile rilasciato da attività antropiche, ma anche a causa della sempre maggiore conversione del territorio rurale in urbanizzato (inurbamento), con conseguente riduzione del fenomeno dell’evapotraspirazione. Oggetto di questa dissertazione è lo studio del comportamento termico delle superfici in ambito urbano, sperimentato sulla città di Bologna. Il primo capitolo si interessa dei principi e delle leggi fisiche sui quali è basato il telerilevamento effettuato nelle bende spettrali dell’infrarosso termico. Viene data una definizione di temperatura radiometrica e cinematica, tra loro legate dall’emissività. Vengono esposti i concetti di risoluzione (geometrica, radiometrica, temporale e spettrale) dell’immagine termica e viene data descrizione dei principali sensori su piattaforma spaziale per l’alta risoluzione nel TIR (ASTER e Landsat). Il secondo capitolo si apre con la definizione di LST (Land Surface Temperature), parametro del terreno misurato col telerilevamento, e ne viene descritta la dipendenza dal flusso della radiazione in atmosfera e dalle condizioni di bilancio termico della superficie investigata. Per la sua determinazione vengono proposti metodi diversi in funzione del numero di osservazioni disponibili nelle diverse bande spettrali dell’IR termico. In chiusura sono discussi i parametri che ne caratterizzano la variabilità. Il capitolo terzo entra nel dettaglio del telerilevamento termico in ambito urbano, definendo il fenomeno dell’Urban Heat Island su tutti i livelli atmosferici interessati, fornendo un quadro di operabilità con gli strumenti moderni di rilievo alle differenti scale (analisi multiscala). Un esempio concreto di studio multiscala dei fenomeni termici urbani è il progetto europeo EnergyCity, volto a ridurre i consumi energetici e le emissioni di gas serra di alcune città del centro Europa. Il capitolo quarto riporta la sperimentazione condotta sull’isola di calore urbana della città di Bologna tramite immagini ASTER con risoluzione spaziale 90 m nel TIR e ricampionate a 15 m dal VIS. Lo studio dell’isola di calore si è effettuata a partire dal calcolo della Land Surface Temperature utilizzando valori di emissività derivati da classificazione delle superfici al suolo. Per la validazione dei dati, in alternativa alle stazioni di monitoraggio fisse dell’ARPA, presenti nell’area metropolitana della città, si è sperimentato l’utilizzo di data-loggers per il rilievo di temperatura con possibilità di campionamento a 2 sec. installati su veicoli mobili, strumentati con ricevitori GPS, per la misura dei profili di temperatura atmosferica near-ground lungo transetti di attraversamento della città in direzione est-ovest.
Resumo:
Questa tesi di laurea si pone in continuità rispetto all’esperienza maturata nel Laboratorio di Sintesi Finale di Urbanistica “Spiagge urbane. Paesaggi, luoghi, architetture nella città balneare adriatica”. Nel corso del Laboratorio è stata condotta una riflessione sulle possibili strategie di “dedensificazione” della località balneare di Viserbella, nella Riviera di Rimini. La tesi è quindi l’occasione per ripensare lo sviluppo e la trasformazione di una parte del litorale riminese, creando una città balneare capace di conferire un’impronta indelebile nel tessuto esistente. L’esigenza di “dedensificare” nasce per dare una concreta risposta ad un incontrollato sviluppo turistico che ha creato contemporaneamente l’affascinante prodotto che è la costa romagnola, e il tessuto completamente saturo e senza alcuna pianificazione urbanistica, sviluppatosi, per lo più, tra la linea di costa e la linea ferroviaria. La storia di Viserbella, posta tra Torre Pedrera e Viserba, inizia nei primi decenni del Novecento, ma il vero sviluppo, legato al boom turistico, avviene negli anni Cinquanta, quando la località si satura di edifici, alcuni dei quali di scarso valore architettonico e collocati sull’arenile, e di infrastrutture inefficienti. Lo studio dell’area di progetto si articola in quattro fasi. La prima riguarda l’analisi territoriale della costa romagnola compresa tra Cesenatico e Cattolica, con un raffronto particolare tra la piccola località e la città di Rimini. La seconda parte è volta a ricostruire, invece, le fasi dello sviluppo urbano dell’agglomerato. La ricerca bibliografica, archivistica, cartografica e le interviste agli abitanti ci hanno permesso la ricostruzione della storia di Viserbella. La terza parte si concentra sull’analisi urbana, territoriale, ambientale e infrastrutturale e sull’individuazione delle criticità e delle potenzialità della località determinate, in particolar modo, dai sopraluoghi e dai rilievi fotografici. Basilari sono state, in questo senso, le indagini svolte tra i residenti che ci hanno mostrato le reali necessità e le esigenze della località e il raffronto con gli strumenti urbanistici vigenti. La fase di ricerca è stata seguita da diversi docenti e professionisti che hanno lavorato con noi per approfondire diversi aspetti come i piani urbanistici, lo studio del paesaggio e dell’area. Con i risultati ottenuti dalle indagini suddette abbiamo redatto il metaprogetto alla scala urbana che identifica le strategie di indirizzo attraverso le quali si delineano le azioni di programmazione, finalizzate al raggiungimento di un risultato. La conoscenza del territorio, le ricerche e le analisi effettuate, permettono infatti di poter operare consapevolmente nella quarta fase: quella progettuale. Il progetto urbanistico di “dedensificazione” per la località di Viserbella ha come presupposto primario la sostituzione dell’attuale linea ferroviaria Rimini-Ravenna con una linea a raso che migliori i collegamenti con le località vicine e la qualità della vita, dando ulteriori possibilità di sviluppo all’insediamento oltre la ferrovia. Da questo emergono gli altri obiettivi progettuali tra cui: riqualificare l’area a monte della ferrovia che attualmente si presenta degradata e abbandonata; rafforzare e creare connessioni tra entroterra e litorale; riqualificare il tessuto esistente con l’inserimento di spazi pubblici e aree verdi per la collettività; “restituire” la spiaggia al suo uso tradizionale, eliminando gli edifici presenti sull’arenile; migliorare i servizi esistenti e realizzarne di nuovi allo scopo di rinnovare la vita della collettività e di creare spazi adeguati alle esigenze di tutti. Restituire un’identità a questo luogo, è l’intento primario raggiungibile integrando gli elementi artificiali con quelli naturali e creando un nuovo skyline della città. La progettazione della nuova Viserbella pone le basi per forgiare degli spazi urbani e naturali vivibili dagli abitanti della località e dai turisti, sia in estate che in inverno.
Resumo:
Chiunque visiti il Castello di Sorrivoli, può percepire lo straordinario valore testimoniale di questo monumento, dall’aspetto “venerando e pittoresco”, che racchiude in sé quasi mille anni di storia. Il continuo utilizzo del castello, le piccole opere di manutenzione e le campagne di restauro hanno garantito la trasmissione al presente di apparati tipici dell’architettura bellica medievale e del palatium residenziale, ma soprattutto hanno reso possibile leggere parte di questi mille anni direttamente sulla fabbrica. Quello che invece colpisce negativamente è come il castello abbia dovuto adattarsi alle nuove funzioni, imposte aprioristicamente negli ultimi decenni e non viceversa. Spazi straordinari sono stati compromessi, gran parte delle sale sono utilizzate come deposito e le ali del castello, che non possono essere ragionevolmente sfruttate dalla comunità religiosa, si trovano in uno stato di conservazione pessimo, mettendo così a repentaglio la possibilità di continuare questa traditio, intesa col significato latino di tradere ai posteri la memoria del castello. L’approccio alla fabbrica richiedeva dunque, oltre agli interventi sui paramenti, una nuova destinazione d’uso che, coinvolgendo tutto il castello, ne valorizzasse le spazialità e soprattutto permettesse la conservazione di tutte le sue parti costitutive. In secondo luogo, la nuova ipotesi aspirava a confrontarsi con una situazione realistica e sostenibile dal punto di vista della gestione del complesso. Dopo aver valutato quelle che erano le opportunità offerte dal territorio e le vocazioni d’uso del castello stesso, è quindi emersa la necessità di avere due livelli di fruizione, uno che permettesse a tutti di conoscere e visitare il castello e le sue parti più significative e il secondo più materiale, legato alla presenza di tutti quei servizi che rendono confortevole la permanenza delle persone. Per queste ragioni il percorso ha inizio nel parco, con una lettura complessiva del monumento; prosegue, attraverso la postierla, nel piano interrato, dove è allestito un museo virtuale che narra, in maniera interattiva, la storia del castello e termina sulla corte, dove il nuovo volume, che ripropone la spazialità dell’ala crollata, permette di comprendere i legami intrinseci col territorio circostante. La torre centrale assume infine il ruolo di punto culminante di questa ascesa verso la conoscenza del castello, diventando un luogo metaforico di meditazione e osservazione del paesaggio. Il piano terra e il piano primo dell’antico palatium ospitano invece una struttura ricettiva, che aspirando ad un’elevata qualità di servizi offerti, è dotata di punto vendita e degustazione di prodotti tipici e sala conferenze. La scelta di ricostruire l’ala crollata invece, non vuol essere un gesto autografo, ma deriva dall’esigenza di far funzionare al meglio il complesso sistema del castello; sono stati destinati al volume di nuova edificazione quei servizi necessari che però non erano compatibili con la fabbrica antica e soprattutto si è cercato di dar conclusione al racconto iniziato nel giardino. In tal senso la valorizzazione del castello si articola come un percorso di conoscenza che si pone come scopo primario la conservazione del monumento, senza però negare l’innovazione legata alla contemporaneità dell’intervento e alla volontà di volerlo includere in una più ampia dinamica territoriale.
Resumo:
La depurazione è un processo finalizzato a ridurre in modo significativo le sostanze inquinanti presenti nelle acque reflue prima del loro rilascio in ambiente. L’uso delle alghe in impianti di depurazione di acque reflue prende il nome di ficorimedio e potrebbe rappresentare un’alternativa o una integrazione alla depurazione tradizionale dei reflui per il fatto che le alghe operano la rimozione di nutrienti e metalli pesanti dalle acque e al tempo stesso possono fornire biomassa utilizzabile come nuova fonte di energia. Lo scopo principale di questo lavoro è stato di saggiare la capacità depurativa di microalghe idonee per la depurazione dei reflui, questo è stato fatto tramite due esperimenti. Il primo esperimento è stato realizzato in modo tale da simulare un sistema continuo di crescita di Scenedesmus sp. andando a ricreare le stesse condizioni di un sistema all’aperto come negli open ponds, in particolare prelevando periodicamente una parte di biomassa e sostituendola con terreno nuovo. Sono state applicate tre diverse condizioni per analizzare quale metodo permetteva di ottenere maggiori valori di produttività di biomassa e per valutare come questa si diversifica nel tempo nella sua componente biochimica, inoltre si è valutata anche la componente fisiologica, attraverso la misura dell’efficienza fotosintetica. Nel successivo esperimento è stata utilizzata una popolazione algale naturale, proveniente dalla vasca di sedimentazione terziaria del depuratore di Ravenna, e fatta crescere nell’effluente primario. L’esperimento era volto a comprendere i processi di successione delle microalghe in un sistema aperto attraverso uno studio della composizione delle specie nel tempo e a confrontare la crescita e l’efficienza di fitodepurazione della popolazione mista con quelle di Scenedesmus sp. Nelle colture di Scenedesmus sp. in semicontinuo si è visto che il tempo di residenza idraulica minore determina una concentrazione di biomassa inferiore a quella che si ottiene nelle colture con tempi di residenza idraulica maggiori. La produttività dei polisaccaridi (g/L/day) risulta più elevata all’aumentare dei tempi di residenza idraulica, mentre per le proteine l’andamento è inverso. I valori di efficienza fotosintetica evidenziano fenomeni di fotoinibizione nella coltura con minor tempo di residenza idraulica senza che vi sia un danno dell’apparato fotosintetico. L’esperimento basato sulla crescita di una popolazione naturale in coltura batch ha mostrato che la velocità di crescita e la densità di biomassa raggiunta sono di poco inferiori a quelle della monocoltura di Scenedesmus sp. La popolazione è in grado di rimuovere i nutrienti presenti nell’effluente primario dopo 7 giorni, in un tempo maggiore rispetto a quello impiegato da Scenedesmus sp. Questo esperimento ha evidenziato che, sebbene Scenedesmus sp. fosse presente in scarsa quantità all’inizio dell’esperimento, la sua concentrazione aumenta nel tempo dimostrando così di essere maggiormente competitiva rispetto alle altre microalghe presenti nella coltura e di resistere a grazers e patogeni. I risultati ottenuti in questo studio sono importanti per la conduzione di esperimenti di ficodepurazione su scala più ampia e ha permesso di comprendere come la biomassa algale si caratterizza nel tempo andando a simulare le condizioni di crescita in un sistema continuo.
Resumo:
Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.
Resumo:
La terapia di resincronizzazione cardiaca (CRT) si è imposta negli ultimi dieci anni come l'alternativa migliore all'approccio farmacologico primario nella cura allo scompenso cardiaco: la stimolazione biventricolare utilizzando un elettrocatetere in ventricolo sinistro si è infatti rivelata uno dei metodi più efficaci per migliorare la dissincronia ventricolare negli stadi più avanzati anche nei pazienti che necessitano di una stimolazione continua e permanente come coloro che sono stati sottoposti ad ablazione del nodo AV. Esistono diversi punti irrisolti su cui la ricerca sta ancora lavorando per poter ottimizzare questa terapia, in particolar modo la percentuale (circa il 25-30%) dei pazienti in cui non si registrano miglioramenti dovuti alla terapia. Questa tesi, proposta dall'azienda St.Jude Medical Inc., segue la costruzione di un registro osservazionale per poter valutare l'efficacia della tecnologia quadripolare di ultima generazione. Dai dati emersi, la possibilità di programmare dieci diversi vettori di stimolazione contro i tre offerti dagli attuali dispositivi bipolari permette una maggiore libertà nel posizionamento dell'elettrocatetere ventricolare sinistro e una più semplice gestione delle complicanze come la stimolazione del nervo frenico (PNS), oltre a strutturare una terapia più specifica a seconda della risposta del paziente; inoltre la tecnologia quadripolare ha evidenziato migliori prestazioni in sede di impianto – tempi minori, più percentuali di successo e maggiori possibilità di posizionamento del catetere in zona ottimale con buoni valori di soglia – e meno interventi in seguito a complicanze. Il miglioramento della percentuale dei responder non è stato particolarmente significativo e necessita di ulteriori studi, ma è comunque incoraggiante e mostra che un numero più alto di configurazioni di stimolazione può essere una soluzione ottimale per la ricerca di una cura personalizzata, specialmente verso quei pazienti che durante l'impianto verrebbero esclusi per mancanza di stimolazioni corrette e possono, in questo modo, rientrare nella terapia fin dall'inizio.
Resumo:
L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
During this internship, the α-alkylation of branched aldehydes was taken into consideration. An enantiopure Betti’s base derivative was used as catalyst, applying a new concept in catalysis: organocatalysis. The Betti’s base may be of particular interest for organic chemists working in the field of “reactions catalysed by enantiopure small organic molecules”, in particular for the ones interested in enantiopure primary amines. The potential of secondary amines as catalysts has certainly been known for years. It is indeed more innovative to conduct reactions using primary amine derivatives as catalyst. In this work, the efficacy of the primary amine was checked first. Then, the focus was set on finding optimal reaction conditions. Finally, to have a more complete picture of the structure of the compounds used in the project, experimental and computational IR spectra were compared, after the method was validated. Durante il periodo di tirocinio è stata presa in esame la reazione di α-alchilazione di aldeidi branched, utilizzando un derivato dell’ammina di Betti come catalizzatore enantiopuro ed applicando un nuovo tipo di catalisi: l’organocatalisi. Questi composti possono essere di particolare interesse per lavori in chimica organica, nel campo delle reazioni catalizzate da “piccole” molecole organiche, in particolare da ammine primarie a chiralità definita; la potenzialità delle ammine secondarie chirali come catalizzatori è certamente nota da anni, ma innovativo è condurre il tutto con l’impiego di un derivato amminico primario. Altri aspetti significativi sono gli apparenti e innumerevoli vantaggi, dal punto di vista economico ed ambientale, oltre che operativo e sintetico, derivanti dal nuovo tipo di catalisi. In un primo momento è stata verificata l’efficacia dell’ammina primaria sintetizzata nella reazione in progetto, quindi sono state individuate le condizioni di reazione ottimali. Infine, per un’analisi più completa di alcune molecole organiche e dopo un’opportuna validazione del metodo utilizzato, sono stati ottenuti a livello computazionale gli spettri IR delle molecole di sintesi prodotto e catalizzatore.