999 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
Il presente lavoro di tesi punta a cercare di capire quali funzionalità, le startup del settore IT ritengono più utili all’interno dei software di project management. L’approccio per rispondere alla domanda sarà quello di intervistare startup presenti in diversi incubatori italiani ed elaborare i dati raccolti. Le aziende dovranno essere operanti nel settore informatico ed avere massimo 7 anni. Nel primo periodo di ricerca ho analizzato le funzionalità descritte nella letteratura scientifica e ho trovato che quanto presente non fosse compatibile con le attuali necessità e caratteristiche delle startup. Per avvalorare quanto affermo, sottoporrò un questionario alle startup compatibili con i requisiti, in cui valuterò se concordano o smentiscono ciò che dichiaro. L’intervista sarà rivolta ai project manager delle aziende, verrà loro sottoposto un questionario online in cui dovranno esprimere una preferenza tra 2 elenchi di funzionalità e indicare qual è maggiormente compatibile con le loro esigenze. In base alla scelta che effettueranno gli verrà domandato quali funzionalità tra quelle elencate ritengono più utili per i loro bisogni aziendali. Al termine della ricerca verranno elaborate le informazioni osservando se hanno trovato più utile il nuovo elenco di funzionalità e quali funzionalità sono considerate maggiormente necessarie a soddisfare le esigenze aziendali.
Resumo:
L’anemometro a filo caldo (in inglese hot wire) é lo strumento maggiormente usato per studiare sperimentalmente la turbolenza. A seconda di quante componenti della velocitá interessa studiare, esistono anemometri a uno, due o tre fili. Questo elaborato di tesi si concentra su sonde a due fili. Per prima cosa, ogni volta che si utilizza questo strumento bisogna effettuare una calibrazione, fase molto importante perché permette di relazionare le tensioni che ogni filo acquisisce con la velocitá reale del flusso. Sono presentati tre differenti metodi utilizzati per sonde a due fili e, dopo averli analizzati, sono stati applicati a dati acquisiti prima al CAT (Coaxial Aerodinamic Tunnel), struttura presente a Forlí, nell’hangar dell’Universitá di Bologna e poi al CICLoPE (Center for International Cooperation in Long Pipe Experiments), Long-Pipe costruito a Predappio, utilizzato per lo studio della turbolenza. La calibrazione per sonde a due fili si puó dividere in due parti, quella di velocitá e quella per gli angoli. Mentre al CAT é possibile effettuarle entrambi, al CICLoPE non é attualmente possibile eseguire la calibrazione angolare perché non esiste alcuno strumento utilizzabile per regolare la sonda all’angolo desiderato. Lo scopo di questo elaborato di tesi è trovare un metodo di calibrazione per sonde a due fili applicabile al CICLoPE eseguendo sul posto solamente una calibrazione di velocitá e adattando quella angolare effettuata precedentemente al CAT. Questo puó provocare dei problemi perché la calibrazione risulta fortemente dipendente da condizioni interne dei fili, come la resistenza, ma anche da condizioni al contorno, come la temperatura e la pressione dell’ambiente esterno. Dopo aver eseguito due campagne sperimentali di test, una al CAT e una al CICLoPE, i dati acquisiti sono stati elaborati per valutare l’efficacia dei vari metodi.
Resumo:
Gli obiettivi dell'elaborato sono lo studio e la programmazione di un algoritmo di controllo di temperatura per le superfici termosaldanti di macchine per il packaging (confezionatrici in film a file multiple) prodotte dal committente, OMAG srl. L'algoritmo è implementato tramite il software SoMachineMotion v.4.2, prodotto da Schneider Electrics spa. Il controllo è di tipo in anello chiuso in retroazione, con temocoppie e resistenze di riscaldamento con modulazione PWM. Ci si è inizialmente occupati di testare su banco prova varie tipologie di regolatori: a relay, a isteresi, a ricerca diretta del duty cycle, TBH, con approccio misto TBH/integratore di Clegg, PID. I diversi metodi di regolazione sono stati valutati sulla base di una serie di metri di giudizio (precisione dell'inseguimento, prestazioni statiche e dinamiche, flessibilità, peso computazionale, facilità implementativa), pesati secondo i requisiti imposti dal committente. Le metodologie selezionate sono state PID e TBH/Clegg integrator; quest'ultima ha dato risultati assai soddisfacenti, pur essendo un metodo monoparametrico. Si sono quindi studiate diverse modalità per la taratura del regolatore PID, in particolare: tuning in anello chiuso con metodo a relay per la fase di pretuning, algoritmo di Nelder-Mead, per la ricerca diretta continua dei valori che minimizzano l'errore integrale, per un selftuning adattivo. Si è infine proceduto ad implementare le soluzioni individuate in un software robusto, che rispetti gli standard del settore e si sono inoltre sviluppate una serie di funzionalità aggiuntive, quali: modulazione software PWM, preriscaldamento, handling errori/warning, filtraggio segnali in/out. Si è addizionalmente sviluppato un modello matematico predittivo dell'evoluzione del sistema, che potrebbe servire, in un futuro sviluppo, come base per un controllo model-based in cascata al controllo in retroazione studiato.
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
Lo scopo di questo lavoro di tesi è quello di sviluppare un prototipo di scaffold tri-strato che favorisca la rigenerazione del tessuto parodontale, mimando i differenti tessuti mineralizzati del parodonto per il trattamento, in particolare, delle parodontiti avanzate.Le prime attività si baseranno sulla definizione di un metodo che permetta la standardizzazione della fase dei lavaggi inerente al processo di produzione dello scaffold parodontale. Tale fase risulta, infatti, altamente operatore-dipendente e pertanto l’acqua contenuta prima e dopo il lavaggio, non essendo controllata, influenza diversamente le caratteristiche del prodotto finale. Infine, per garantire l’assottigliamento dello strato intermedio collagenico (tale da rispettare le caratteristiche strutturali del legamento parodontale in vivo) saranno testate diverse condizioni di liofilizzazione.
Resumo:
La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.
Resumo:
Questa ricerca mira ad indagare le immagini possibili di una città, nello specifico Rimini, sperimentando un sistema insediativo in cui l'elemento verde e le relazioni sociali e funzionali sono stati elementi fondamentali nella progettazione. L'area di intervento è la stazione di Rimini, per cui si è proposta una riqualificazione urbana capace di innescare flussi e capacità attrattiva, grazie alla scelta di inserire edifici di carattere pubblico, quali un museo, l'accademia delle belle arti, servizi agli universitari, un hotel e del terziario. Le residenze sono immerse nel parco, per godere di un rapporto privilegiato con l'elemento natura. Il lavoro è partito da un'analisi delle caratteristiche di Rimini, la sua forte vocazione turistica e le sue componenti culturali, cercando di rappresentare al meglio gli aspetti e i valori della città.
Resumo:
In questo elaborato vengono presentate la traduzione di un estratto di un romanzo di Terry Pratchett, The fifth elephant, e l’analisi di questa traduzione, realizzata con l’aiuto di un corpus costruito ad hoc per questa ricerca. Nel corpus sono state inserite le traduzioni italiane di otto romanzi differenti, scritti dallo stesso autore, Terry Pratchett, e tradotti da tre traduttrici professioniste. Questo corpus è stato ideato appositamente per coadiuvare il processo di traduzione dell’estratto e per esemplificare un metodo di analisi del lavoro di traduttori professionisti. Questo tipo di analisi, nota come translational stylistics, ha lo scopo di identificare le differenze esistenti a livello stilistico tra i traduttori, cercando nello specifico quegli elementi che permettano di identificare e distinguere tra loro i lavori di un determinato traduttore da quelli di un altro, a prescindere dal testo di partenza. Questo elaborato si apre con la descrizione tecnica di un corpus, spiegandone gli utilizzi nel campo della ricerca e i metodi di costruzione. In seguito viene fornita una panoramica dell’autore e delle sue opere, e vengono fornite informazioni sulle traduzioni in italiano di questi romanzi e sulle traduttrici che le hanno elaborate. Viene quindi presentata la traduzione dell’estratto, seguita da un’analisi dei problemi traduttivi affrontati durante il processo di traduzione e di come il corpus abbia aiutato a risolvere e superare queste difficoltà. Infine viene presentato uno studio di caso sulla translational stylistics che mostra le differenze a livello di stile esistenti tra i lavori di traduttori diversi.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
I materiali compositi occupano un posto di particolare rilievo in virtù non solo delle forti caratteristiche innovative da loro possedute, ma anche dalla possibilità di progettare il materiale in base alle specifiche funzionali e strutturali del sistema da realizzare. In questo lavoro di tesi sono stati valutati gli effetti di grafene e ossido di grafene sulle proprietà termo-meccaniche di formulazioni polimeriche commerciali sia di tipo termoplastico che termoindurente. In particolare sono stati valutati i metodi di dispersione delle nanocariche, ottimizzandoli per ciascuna matrice polimerica e successivamente sono stati preparati i provini necessari per la caratterizzazione dei materiali (nano)compositi ottenuti, al fine di valutare l’effetto della presenza delle nanocariche grafeniche.
Resumo:
l presente lavoro è concepito come una risorsa di cui usufruire per migliorare le condizioni di partenza di una sessione di interpretariato sull’agricoltura biodinamica. Una tempestiva fornitura da parte dei committenti di materiale informativo relativamente al tema della conferenza può risultare determinante ai fini di un interpretariato di qualità. Ma il materiale formativo è raramente prodotto da interpreti e raramente per gli interpreti e, se non si tratta del testo del discorso da tradurre, rischia di essere poco utile. Ecco che quindi acquisisce una certa valenza il punto di vista dell’interprete qualificato, che riesce più facilmente di altri profili a produrre materiale informativo per chi si appresta ad effettuare un interpretariato, individuando in maniera più immediata di un “non addetto ai lavori” ciò che il processo di preparazione richiede e come quest’ultimo andrà ad influire sulla buona riuscita o meno dell’interpretariato in questione. L’agricoltura è stata uno dei primi settori produttivi a subire il processo di integrazione europea. Con la recente (ri)scoperta dell’importanza della sostenibilità e quindi dell’agricoltura biologica, questo processo ha subito un nuovo impulso, specialmente in seguito all’emanazione di nuove leggi e alla conseguente elaborazione di una quantità considerevole di materiale in tutte le lingue ufficiali dell’UE. In questo contesto, è interessante osservare e approfondire la lingua speciale dell’agricoltura biodinamica, movimento interno al fenomeno del biologico ma che ne è al contempo anche il principale precursore. Il metodo biodinamico è infatti dotato di una terminologia ancora non completamente standardizzata, ma molto ricca di concetti tipici. Aiutare l’interprete a fare propri questi concetti, per migliorare la propria performance così come per approfondire meglio l’argomento è stato lo scopo del lavoro.
Resumo:
L'importanza dell'acciuga europea (Engraulis encrasicolus) come risorsa ittica, sia a livello economico che ecologico, nel Mar Mediterraneo, ha portato alla necessità di monitorare la biomassa deponente di questa specie per cercare di dare un limite al suo sovrasfruttamento (rappresentando il 22% delle catture nazionali). Lo studio effettuato riguarda le stime di fecondità dell'acciuga europea tramite l'applicazione di un metodo di analisi d'immagine, Whole Mount, su campioni di gonadi di adulti maturi e pronti alla deposizione. Il campionamento degli esemplari è avvenuto durante due campagne oceanografiche, organizzate dall'U.O.S di Capo Granitola dell'Istituto per l'Ambiente Marino Costiero del CNR, che hanno coperto l'area dello Stretto di Sicilia e del Mar Tirreno, durante i mesi estivi che rappresentano il picco di deposizione della specie. Nel presente lavoro sono stati analizzati in totale 76 ovari di acciuga, provenienti da entrambe le aree di campionamento e che presentassero ovociti maturi e risultassero, quindi, in una fase di deposizione nota come "deposizione imminente". Per entrambe le aree di studio è stata stimata una relazione lunghezza-peso con andamento esponenziale. I test statistici non parametrici di Kolmogorov-Smirnov e di Mann-Whitney hanno permesso di stimare se vi fossero differenze tra la fecondità, l'indice gonadosomatico (IGS) e il fattore di condizione (CF) nelle due aree, Stretto di Sicilia e piattaforma settentrionale siciliana. I valori di CF sono risultati significativamente differenti tra le due aree se valutati con il test di Kolmogorov-Smirnov, tuttavia tale differenza non è stata confermata dal test di Mann-Whitney. L'IGS e la fecondità, invece, sono risultati significativamente diversi nelle due aree per entrambi i test. Si può ipotizzare che valori di fecondità differenti nelle due aree, nonostante in entrambi i casi il campionamento sia avvenuto durante il picco di riproduzione della specie, possono essere dovuti alla variabilità dei fattori abiotici, quali temperature e nutrienti, differenti nello Stretto di Sicilia e nell'area lungo le coste settentrionali siciliane. Temperatura e nutrienti possono essere differenti, poiché vi è un diverso movimento delle masse d'acqua causato da correnti distinte nelle due aree. Conoscere la variabilità dei parametri riproduttivi di una specie di rilevanza commerciale così alta, come l'acciuga, rappresenta uno strumento fondamentale per scegliere le misure di gestione sostenibile degli stock più appropriate per aree differenti.
Resumo:
Questo elaborato si concentra sullo studio della trasformata di Fourier e della trasformata Wavelet. Nella prima parte della tesi si analizzano gli aspetti fondamentali della trasformata di Fourier. Si definisce poi la trasformata di Fourier su gruppi abeliani finiti, richiamando opportunamente la struttura di tali gruppi. Si mostra che calcolare la trasformata di Fourier nel quoziente richiede un minor numero di operazioni rispetto a calcolarla direttamente nel gruppo di partenza. L'ultima parte dell'elaborato si occupa dello studio delle Wavelet, dette ondine. Viene presentato quindi il sistema di Haar che permette di definire una funzione come serie di funzioni di Haar in alternativa alla serie di Fourier. Si propone poi un vero e proprio metodo per la costruzione delle ondine e si osserva che tale costruzione è strettamente legata all'analisi multirisoluzione. Un ruolo cruciale viene svolto dall'identità di scala, un'identità algebrica che permette di definire certi coefficienti che determinano completamente le ondine. Interviene poi la trasformata di Fourier che riduce la ricerca dei coefficienti sopra citati, alla ricerca di certe funzioni opportune che determinano esplicitamente le Wavelet. Non tutte le scelte di queste funzioni sono accettabili. Ci sono vari approcci, qui viene presentato l'approccio di Ingrid Daubechies. Le Wavelet costituiscono basi per lo spazio di funzioni a quadrato sommabile e sono particolarmente interessanti per la decomposizione dei segnali. Sono quindi in relazione con l'analisi armonica e sono adottate in un gran numero di applicazioni. Spesso sostituiscono la trasformata di Fourier convenzionale.
Resumo:
L’interesse da parte dell’industria alimentare verso il melograno sta aumentando in virtù delle sue caratteristiche nutrizionali, come ad esempio l’alto contenuto di composti fenolici, che rendono tale frutto interessante per la produzione di succhi funzionali. Studi riportano che il microbiota di tali frutti è rappresentato principalmente da lieviti, muffe, batteri mesofili e lattici che possono proliferare durante la conservazione dei succhi. L’obiettivo di questa tesi è stato quello di valutare l’effetto di trattamenti di pastorizzazione di sul livello di contaminazione microbica di succo di melagrana ottenuto da arilli di due cultivar. A tale scopo si è valutata l’efficacia delle condizioni di trattamento adottate nell’inattivare la microflora naturalmente presente nei succhi di frutta e la sua capacità di recuperare durante la fase di conservazione a temperature sia di refrigerazione, che ambiente. Inoltre si è realizzato un challenge test in cui i succhi sono stati deliberatamente contaminati con S. cerevisiae, L. plantarum e diversi patogeni. I risultati hanno mostrato come il succo di melagrana sia un prodotto a breve shelf-life (5 giorni) quando conservato a temperatura ambiente poichè soggetto ad un rapido sviluppo della microflora. Infatti, sebbene i livelli di contaminazione iniziale rilevati fossero complessivamente bassi, i lieviti hanno raggiunto rapidamente la soglia critica di spoilage (6 Log UFC/ml) nei succhi freschi. Le condizioni di trattamento termico adottate hanno portato ad una significativa riduzione della microflora a livelli inferiori al limite di rilevabilità, e le cellule sopravvissute al trattamento non sono state in grado di proliferare nel succo conservato a 4°C per quasi 2 mesi. Quando conservati a temperatura ambiente, i succhi esposti al processo più blando hanno presentato una shelf-life di circa 25 giorni, mentre questa è aumentata fino oltre 32 giorni nei prodotti trattati più a lungo.
Resumo:
Oggi il mercato mondiale dell'anidride maleica (AM) è in continua espansione grazie ad un numero sempre crescente di applicazioni finali e sviluppo di nuove tecnologie industriali. La AM viene impiegata nella produzione di resine poliestere insature e resine alchidiche e nella produzione di chemicals a più alto valore aggiunto. Il processo di sintesi è tutt’ora basato sull'ossidazione selettiva del benzene e del n-butano. Con l’aumento delle emissione di gas serra, legate all’impiego di materie di origine fossile e la loro continua diminuzione, si stanno studiando nuovi processi basati su materie derivanti da fonti rinnovali. Tra i vari processi studiati vi è quello per la sintesi di AM, i quali utilizzano come molecola di furfurale, 5-idrossimetilfurfurale e 1-butanolo; tutte queste presentano però il problema di un costo superiore rispetto alle molecole tutt’ora usate. Ad oggi una delle molecole ottenibili da fonti rinnovabili avente un costo competitivo alle materie derivanti da fonti fossili è il bio-etanolo. Essendo nota la possibilità di trasformare dell’etanolo in composti a 4 atomi di carbonio (C4) come 1-butanolo (reazione di Guerbet) e in 1,3- butadiene (processo Lebedev) su ossidi misti Mg/Si e la loro trasformazioni in AM, è’ dunque possibile ipotizzare un processo operante in fase gas che accoppi entrambi i processi. Lo scopo di questo lavoro di tesi è stato quello di effettuare uno studio su sistemi catalitici mediante differenti approcci impiantistici. Il primo ha previsto l’impiego di un sistema detto “a cascata” nel quale è stato accoppiato il sistema misto a base di Mg/Si/O, per la trasformazione dell’etanolo a C4, e il pirofosfato di vanadile (VPP), per l’ossidazione selettiva di quest’ultimi in AM. Il secondo approccio ha previsto l’impiego di un unico sistema multifunzionale in grado di catalizzare tutti gli step necessari. In quest’ultimo caso, i sistemi studiati sono stati il Mg2P2O7 ed un sistema costituito da VPP DuPont sul quale è stato depositato MgO. I catalizzatori sono stati caratterizzati mediante diffrattometria a raggi X, spettroscopia Raman e analisi dell’area superficiale mediante metodo BET, mentre i test catalitici sono stati condotti su un impianto di laboratorio con un reattore assimilabile ad un modello di tipo PFR.