959 resultados para emissione spontanea,emissione stimolata,schema a quattro livelli,atomi,fotoni,Olografia
Resumo:
Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.
Resumo:
La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.
Resumo:
L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.
Resumo:
La presenza di residui dei farmaci ad uso umano e veterinario nelle acque superficiali è in costante aumento a causa del loro elevato consumo. L’impatto ambientale dei prodotti farmaceutici è riconosciuto in tutto il mondo ma attualmente ancora non sono presenti degli Standard di qualità ambientale per queste sostanze in ambiente acquatico. L’agenzia europea per i farmaci (EMEA) ha introdotto delle linee guida per la valutazione del rischio ambientale per tutti i nuovi farmaci prima di provvedere alla registrazione, ma in nessun caso la loro autorizzazione in commercio è vietata. Una volta assunti, i farmaci sono escreti dagli organismi in forma nativa o come metaboliti, e attraverso gli scarichi urbani raggiungono i depuratori che li rimuovono solo in parte. Di conseguenza, i residui dei farmaci vengono ritrovati nei fiumi, nei laghi, fino alle acque marine costiere. Anche se presenti a basse concentrazioni (ng-μg/L) nelle acque superficiali, i farmaci possono provocare effetti avversi negli organismi acquatici. Queste specie rappresentano involontari bersagli. Tuttavia molti di essi possiedono molecole target simili a quelle dell’uomo, con i quali i farmaci interagiscono per indurre gli effetti terapeutici; in questo caso i farmaci ambientali possono causare effetti specifici ma indesiderati sulla fisiologia degli animali acquatici. Le interazioni possono essere anche non specifiche perché dovute agli effetti collaterali dei farmaci, ad esempio effetti ossidativi, con potenziali conseguenze negative su vertebrati ed invertebrati. In questo lavoro sono stati valutati i potenziali effetti indotti nelle larve di orata da quattro classi di farmaci ovvero: carbamazepina (antiepilettico), ibuprofene (antinfiammatorio non steroideo), caffeina (stimolante) e novobiocina (antibiotico). In particolare, in questo lavoro si è valutato inizialmente il tasso di sopravvivenza delle larve di orata esposte ai farmaci, per verificare se l’esposizione determinasse effetti di tossicità acuta; successivamente si è passati alla valutazione di due biomarker : il danno al DNA e la perossidazione lipidica per verificare la presenza di effetti tossici sub-letali. Le larve sono state esposte per 96 ore alle concentrazioni di 0.1, 1 (MEC), 10 e 50 µg/L (>MEC) di carbamazepina e novobiocina, a 0.1, 5 (MEC),10 e 50 µg/L (> MEC) di ibuprofene ed a 0.1, 5 (MEC),15 e 50 µg/L (> MEC) di caffeina, rappresentative delle concentrazioni riscontrate in ambiente acquatico e al di sopra di quest’ultimo. L’analisi dei dati sulla sopravvivenza ha dimostrato che la carbamazepina, l’ibuprofene, la novobiocina e la caffeina non hanno effetti significativi alle concentrazioni testate. La valutazione dei biomarker ha evidenziato un generale decremento significativo dei livelli di danno primario al DNA e per la perossidazione lipidica è stato generalmente osservato un decremento alle dosi dei farmaci più basse, seguito da un aumento a quelle più elevate. Nell’insieme i dati indicano che alle concentrazioni testate, i farmaci carbamazepina, caffeina, ibuprofene e novobiocina non hanno prodotto alterazioni attribuibili alla comparsa di effetti avversi nelle larve di S. aurata dopo 96 ore di esposizione.
Resumo:
Da decenni in evoluzione tecnologica e scientifica la laserterapia rappresenta ormai una nuova frontiera per la medicina riabilitativa e preventiva. Il laser viene sfruttato per i suoi effetti benefici nella terapia antalgica; grazie alle sue caratteristiche riesce a raggiungere i tessuti profondi in tutta sicurezza, senza dolore e senza recare danni al paziente. Gli scopi della terapia sono soprattutto due: antidolorifico e antiinfiammatorio, viene utilizzata per lenire molte patologie da sovraccarico, traumatiche o degenerative che coinvolgono strutture ossee, muscolari, tendinee e articolari. Riscuote successo anche negli ambiti dell'estetica e dello sport. Non presenta grossi effetti collaterali, i risultati sono accertati e consente una rapida ripresa rispetto alle metodiche tradizionali. L'obiettivo dell'elaborato è stato quello di realizzare un laser terapeutico utilizzando i parametri principali che lo caratterizzano – lunghezza d'onda, potenza, modalità di emissione e altri- sulla base delle conoscenze acquisite durante il tirocinio in azienda.
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
Questa tesi è dedicata alla traduzione dallo slovacco all’italiano di quattro fiabe popolari slovacche di Dobšinský in una versione per bambini adattatata da Elena Slobodová e pubblicata nel 2012 con il titolo Slovenské rozprávky [Fiabe slovacche]. L’adattamento si basa sull’opera Prostonárodné slovenské povesti [Leggende popolari slovacche] pubblicata da Dobšinský tra il 1880 e il 1883. Le fiabe di Dobšinský sono considerate la monumentalizzazione della fiaba popolare slovacca nella sua forma classica e costituiscono una componente importante del patrimonio culturale slovacco. Quindi, benché l’autrice abbia rimosso quegli elementi non adeguati per bambini, nelle fiabe adattate sono presenti molte tracce della lingua arcaica e molti realia relativi alla cultura slovacca. La tesi comprende un’introduzione, cinque capitoli e le conclusioni. Il primo capitolo è dedicato alla traduzione della letteratura per l’infanzia, in particolare delle fiabe. Il secondo capitolo riguarda la vita di Dobšinský e la genesi delle Prostonárodné slovenské povesti nel contesto storico-culturale del Romanticismo slovacco. Inoltre, in questo capitolo vengono analizzate le modalità in cui le fiabe popolari sono entrate a far parte della letteratura per l’infanzia e sono state adattate per la radio e la televisione. Il terzo capitolo consiste nell’analisi del testo di partenza non solo dal punto di vista della struttura delle fiabe, ma anche in relazione alle differenze tematiche e linguistiche che sussistono tra il testo originale di Dobšinský e la versione adattata. Del terzo capitolo fa parte anche un glossario con i termini arcaici, letterari, enfatici, dialettali e colloquiali, le espressioni idiomatiche e i realia. Il quarto capitolo contiene la proposta di traduzione in italiano delle fiabe Zlatovláska, O dvanástich mesiačikoch, Popolvár najväčší na svete a Nebojsa. Nel quinto capitolo vengono commentate le strategie e le difficoltà traduttive.
Resumo:
Negli ultimi vent’anni innumerevoli sforzi sono stati compiuti a livello internazionale per ottenere un censimento completo degli “Active Galactic Nuclei” (AGN), ovvero di nuclei galattici attivi, oscurati in banda X. Tale censimento potrebbe rappresentare infatti la soluzione alla problematica del cosiddetto fondo cosmico non risolto in banda X. Gli studi finora condotti sfruttano la forte correlazione fra l'attività del SMBH e l'evoluzione della galassia ospite attraverso osservazioni in banda X hard, nel vicino-medio infrarosso e nell'ottico. Questa tesi si colloca in questo scenario con lo scopo di verificare e confermare l'affidabilità della selezione tramite la riga di emissione del CIV a 1549 Å di AGN oscurati fino a z≈3. Per raggiungere tale obiettivo è stato assunto che il CIV rappresenti un indicatore affidabile della luminosità intrinseca degli AGN e del loro alto potenziale di ionizzazione. Inoltre, allo studio in banda ottica delle sorgenti sono stati associati i dati profondi in banda X per analizzarne le proprietà X e caratterizzarne l’ammontare dell’oscuramento in tale banda in termini di densità di colonna di idrogeno. In particolare, in questo lavoro vengono presentati i risultati dell’analisi in banda X del campione di 192 AGN selezionati nella survey ottica zCOSMOS-Deep, attraverso la riga di emissione del CIV a 1549 Å. Queste 192 sorgenti hanno un redshift medio di 2.2 e una magnitudine media AB in banda B di 23.7. La copertura in banda X del campo selezionato è data dalla survey Chandra COSMOS-Legacy comprendente 4.6 Ms di osservazioni in un’area di 2.2 deg2. I risultati ottenuti in questo progetto di tesi tramite la selezione possono ritenersi soddisfacenti: metà delle AGN di Tipo 2 selezionate con il CIV e rilevate in banda X risultano fortemente oscurate (NH>10^23 cm^(-2) ). Inoltre, le AGN di Tipo 2 non rilevate in banda X risultano consistenti con uno scenario di oggetti oscurati.
Resumo:
Il percorso del riconoscimento legislativo del diritto all’equo processo affonda le sue radici nel 1215, anno di promulgazione della Magna Charta Libertatum, e culmina, in ambito europeo, nel 1950, con la firma della Convenzione europea per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali (CEDU). In questo documento viene sancito che un prerequisito essenziale per garantire a tutti gli individui il diritto al fair trial è il servizio di assistenza linguistica gratuita, le cui specificità vengono descritte nella direttiva 2010/64/EU.Nel Regno Unito, già nei primi anni ’90 furono introdotte le prime misure per garantire la qualità e la competenza degli interpreti e dei traduttori in ambito giuridico-giudiziario: nel 1994 fu istituito il National Register for Public Service Interpreters (NRPSI), il registro nazionale a cui erano iscritti tutti gli interpreti per i servizi pubblici che erano in possesso di determinate qualifiche. Per assicurare che solo gli interpreti del NRPSI fossero impiegati in ambito penale, nel 1997 fu introdotto il National Agreement, un accordo non vincolante che regolava l’uso dei servizi linguisti nel Criminal Justice System. La prima versione fu modificata nel 2002 e nel 2007. In seguito ad alcune revisioni per conto del Ministero della Giustizia, nel 2010 fu avviato il processo di esternalizzazione dei servizi linguistici, che si concluse nel 2011 con la stipula del National Framework Agreement tra il Ministero della Giustizia e l’azienda Applied Language Solutions (ALS), che poco prima dell’avvio fu acquisita da un’azienda più grande, CAPITA TI. La scarsa esperienza del Ministero in questo settore, unita alle promesse poco realistiche e alla mancanza di trasparenza di ALS furono le cause principali dei numerosi problemi all’avvio del nuovo contratto che si ripercossero notevolmente sul funzionamento del sistema di giustizia. Dopo l’avvio di un piano di emergenza e un monitoraggio del Ministero, la situazione ha iniziato a ristabilirsi, senza raggiungere però i livelli pre-riforma. A Novembre 2015 è stata indetta la nuova gara di appalto: le minacce di nuovi tagli ai tariffari degli interpreti da una parte, e la partecipazione del NRPSI alla gara d’appalto come candidato al ruolo di ente supervisore della qualità dei servizi linguistici dall’altra, ci pongono di fronte a due scenari futuri molto diversi. L’elaborato è strutturato in quattro capitoli: il primo tratterà del percorso storico che ha portato al riconoscimento del diritto al processo equo, e degli strumenti comunitari a garanzia dell’assistenza linguistica gratuita. Nel secondo capitolo parleremo della situazione inglese, quindi la nascita del NRPSI e del National Agreement e le varie revisioni. Nel terzo prenderemo in esame la riforma del 2011 del Ministero della Giustizia britannico, analizzando diversi documenti: il rapporto della Commissione giustizia della Camera dei comuni 2013, quello del National Audit Office 2012, il sondaggio Involvis 2013, il rapporto indipendente OPTIMITY-MATRIX 2014.
Resumo:
Strategie conoscitive per la valorizzazione di un percorso. Partendo dall'analisi storica, del territorio e del paesaggio, si mettono a sistema quattro edifici di culto lungo la Via Romea Nonantolana, osservando le tecniche costruttive impiegate nella loro realizzazione, ed i fattori ambientali al contorno con una schedatura. Si analizza lo stato di conservazione si propone uno schema di attività ispettive e manutentive, e,prendendo come esempio uno dei quattro edifici, le cause delle patologie sullo stesso e le ipotesi di intervento. Si propone infine un'idea di percorso per poter rendere più fruibili queste fabbriche.
Resumo:
Questo lavoro si è posto l’obiettivo di valutare come differenti qualità di pellet di legno, in accordo con la norma EN 14961-2, e la diversa potenza termica di una moderna stufa domestica influenzino le relative emissioni prodotte. La norma EN 14961-2 prevede una serie di proprietà per il pellet di legno con valori caratteristici per ogni classe di qualità, A1, A2 e B. Per simulare le condizioni cui sono sottoposte le emissioni in aria ambiente, il campionamento del particolato è stato effettuato per mezzo di un tunnel di diluizione. Per valutare e confrontare le emissioni prodotte della stufa a pellet, i dati ottenuti sono stati espressi come fattori di emissione cioè il rapporto tra la quantità di inquinante emesso e i MJ sviluppati dalla combustione. Dallo studio emerge che il pellet di più scarsa qualità mostra emissioni maggiori di CO, NOx, PM, ioni solubili, e la formazione di IPA con alta tossicità: questo implica un maggior impatto sulla salute dell’uomo e sull’ambiente. Inoltre la combustione di pellet di bassa qualità di tipo B causa frequenti problemi di combustione dovuti all’alta percentuale di ceneri, portando a maggiori emissioni di prodotti da combustione incompleta (TC, IPA, PM). La maggior potenza di funzionamento della stufa limita l’emissione di prodotti di combustione incompleta, TC, CO, PM e IPA, ma aumenta la tossicità di quest’ultimi.
Resumo:
In questo lavoro di tesi sperimentale si è sintetizzata e caratterizzata la prima classe di complessi tetrazolici di Ir(III) anionici con formula generale [Ir(C^N)2(L)2]-, in cui oltre ai leganti ciclometallanti ”C^N” quali 2-fenilpiridinato (ppy) o 2-(2,4-difluorofenil)piridinato (F2ppy), sono stati introdotti due anioni tetrazolato (L) come il 5-fenil tetrazolato (Tph) oppure 5-(4-cianofenil) tetrazolato (TphCN). I complessi di Ir(III) anionici ottenuti si sono mostrati intensamente fosforescenti, con emissioni centrate nella regione del blu o del verde (460 < λmax<520 nm). I derivati anionici sono stati poi combinati con complessi Ir(III) tetrazolici cationici in grado di fornire emissione nella regione del rosso (λmax > 650 nm), formando così i primi esempi di coppie ioniche (“soft salts”) a matrice puramente tetrazolica. In tutti i casi si è osservato come il colore emesso da parte dei soft salts sia il risultato di una vera propria sintesi additiva delle emissioni derivanti da componenti ioniche con proprietà fotoemittive differenti. La sostanziale assenza di fenomeni di energy o electron transfer tra la componente anionica e cationica e il giusto bilancio tra le emissioni blu o verdi e rosse si sono tradotte, in taluni casi, nell’ottenimento di luce bianca, con la possibilità di variare ulteriormente i colori emessi in seguito all’allontanamento dell’ossigeno molecolare disciolto nelle soluzioni dei soft salts stessi.
Resumo:
Negli ultimi anni si è osservato un crescente sviluppo della ricerca nel campo dei materiali luminescenti per le loro diverse applicazioni reali e potenziali, fra cui l’impiego in dispositivi elettroluminescenti, quali OLEDs (Organic Light-Emitting Diodes) e LECs (Light-Emitting Electrochemical Cells). In modo particolare, si rivolge grande attenzione ai complessi ciclometallati di Ir(III) grazie alle peculiari caratteristiche che li contraddistinguono fra i materiali luminescenti, come l'emissione fosforescente, alte rese quantiche di emissione, lunghi tempi di vita e buona stabilità nei dispositivi. Oltre a tali caratteristiche uno dei principali vantaggi presentati dai complessi di Ir(III) è la possibilità di modulare la lunghezza d'onda di emissione modificando la struttura dei leganti ciclometallanti e ancillari. Considerata la versatilità di questi sistemi e la loro conseguente rilevanza, diverse sono state le strategie applicate per l'ottenimento di complessi di Ir(III) generalmente neutri e cationici; al contrario pochi esempi di complessi di Ir(III) anionici sono attualmente riportati in letteratura. Lo scopo del mio lavoro di tesi è stato quindi quello di sintetizzare tre nuovi complessi anionici luminescenti di Ir(III) con tre diversi leganti ciclometallanti. Il piano di lavoro è stato suddiviso in stadi successivi, partendo dalla sintesi dei tre leganti ciclometallanti, impiegati poi nella preparazione dei dimeri di Ir(III) precursori dei miei complessi; infine facendo reagire questi ultimi con un legante ancillare bisanionico, derivato dal di(1H-tetrazol-5-il)metano, si è giunti all'ottenimento di tre complessi anionici luminescenti di Ir(III). Dopo questa prima parte, il lavoro di tesi è proseguito con la caratterizzazione spettroscopica dei tre complessi anionici e la determinazione delle loro proprietà fotofisiche tramite la registrazione di spettri di assorbimento, di emissione e la determinazione delle rese quantiche di emissione e dei tempi di vita. Infine si è preparato un “soft salt” costituito da un complesso anionico e uno cationico di Ir(III) le cui caratteristiche sono tutt'ora oggetto di studio del gruppo di ricerca presso il quale ho svolto il mio lavoro di tesi.
Resumo:
Oggi il mercato mondiale dell'anidride maleica (AM) è in continua espansione grazie ad un numero sempre crescente di applicazioni finali e sviluppo di nuove tecnologie industriali. La AM viene impiegata nella produzione di resine poliestere insature e resine alchidiche e nella produzione di chemicals a più alto valore aggiunto. Il processo di sintesi è tutt’ora basato sull'ossidazione selettiva del benzene e del n-butano. Con l’aumento delle emissione di gas serra, legate all’impiego di materie di origine fossile e la loro continua diminuzione, si stanno studiando nuovi processi basati su materie derivanti da fonti rinnovali. Tra i vari processi studiati vi è quello per la sintesi di AM, i quali utilizzano come molecola di furfurale, 5-idrossimetilfurfurale e 1-butanolo; tutte queste presentano però il problema di un costo superiore rispetto alle molecole tutt’ora usate. Ad oggi una delle molecole ottenibili da fonti rinnovabili avente un costo competitivo alle materie derivanti da fonti fossili è il bio-etanolo. Essendo nota la possibilità di trasformare dell’etanolo in composti a 4 atomi di carbonio (C4) come 1-butanolo (reazione di Guerbet) e in 1,3- butadiene (processo Lebedev) su ossidi misti Mg/Si e la loro trasformazioni in AM, è’ dunque possibile ipotizzare un processo operante in fase gas che accoppi entrambi i processi. Lo scopo di questo lavoro di tesi è stato quello di effettuare uno studio su sistemi catalitici mediante differenti approcci impiantistici. Il primo ha previsto l’impiego di un sistema detto “a cascata” nel quale è stato accoppiato il sistema misto a base di Mg/Si/O, per la trasformazione dell’etanolo a C4, e il pirofosfato di vanadile (VPP), per l’ossidazione selettiva di quest’ultimi in AM. Il secondo approccio ha previsto l’impiego di un unico sistema multifunzionale in grado di catalizzare tutti gli step necessari. In quest’ultimo caso, i sistemi studiati sono stati il Mg2P2O7 ed un sistema costituito da VPP DuPont sul quale è stato depositato MgO. I catalizzatori sono stati caratterizzati mediante diffrattometria a raggi X, spettroscopia Raman e analisi dell’area superficiale mediante metodo BET, mentre i test catalitici sono stati condotti su un impianto di laboratorio con un reattore assimilabile ad un modello di tipo PFR.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.