994 resultados para probabilità condizionata scuola secondaria secondo grado
Resumo:
Lo studio delle relazioni trofiche del nasello tramite analisi del contenuto stomacale è particolarmente importante per la gestione della pesca sia di questa specie che delle specie appartenenti alla sua alimentazione. Lo scopo della tesi è stato quello di esaminare l’alimentazione di questa specie utilizzando 200 campioni di nasello provenienti dalla Campagna Medits 2014, e confrontare la metodologia morfologica utilizzata con quella molecolare, determinando i vantaggi di ognuna ed i possibili limiti. La campagna di strascico è stata sviluppata secondo uno schema random stratificato in relazione alla profondità e all’interno di ciascun strato. Lo sbarcato è stato preventivamente sottoposto ad analisi biometriche registrando lunghezza totale, peso, sesso e maturità sessuale di ogni singolo individuo; successivamente sono stati conservati in etanolo gli stomaci prelevati dai 200 naselli scelti per classe di taglia. Sono state riconosciute le prede dei campioni di nasello sia analizzandole qualitativamente (al livello tassonomico più basso possibile), che quantitativamente, considerando alcuni degli indici maggiormente utilizzati. È stato poi calcolato l’indice trofico del nasello e sono stati infine confrontati i risultati con quelli delle analisi molecolari evidenziando le prede non riconosciute e gli errori di identificazione. La metodologia morfologica ha sottolineato che l’alimentazione del nasello dipende fortemente dalla taglia del predatore e dal loro grado di maturità sessuale, ma non varia significativamente in base al sesso. Ha infatti evidenziato una taglia del nasello, corrispondente alla taglia di prima maturità sessuale, in cui la specie cambia gradualmente la sua alimentazione, passando da piccoli crostacei a pesci di grandezza sempre maggiore. Risulta essere un forte predatore specializzato, ma che al tempo stesso risulta essere una specie opportunista, scegliendo il proprio cibo da ciò che ha a disposizione. Il confronto con l’analisi molecolare è stato utile per descrivere i pro e i contro di ciascuna metodologia, dimostrando che è necessario sfruttarle entrambe per avere risultati efficaci e completi dell’alimentazione di una specie.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
La branca della ricerca impegnata sul fronte riguardante lo studio della proliferazione dei tumori, si è confrontato negli ultimi anni con una forma di patologia in crescente diffusione a livello mondiale. In particolare si è messo in evidenza che, per quanto riguarda la popolazione femminile, la tipologia più diffusa di tumore colpisce il seno e, se non individuata in tempo, rende molto difficile la sopravvivenza dei soggetti in cui si manifesta. Tutto questo ha portato gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. In particolare, un ruolo molto importante per la diagnosi, è ricoperto dalla Mammografia Digitale ( Digital Mammography): una tecnologia biomedicale principalmente deputata allo screening preventivo, in grado di individuare il tumore al suo stato iniziale e di aumentare quindi la probabilità di una completa guarigione. Tale tecnica si è evoluta di pari passo con i grandi progressi nell’ambito dell’ingegneria biomedicale e dell’informatizzazione dei processi all’interno delle strutture ospedaliere. Questa tesi si propone di descrivere il funzionamento e le normative che regolamento la Digital Mammography, seguendone il processo di integrazione all’interno del panorama clinico sanitario. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di presentare a scopo diagnostico se correttamente interfacciata agli altri sistemi che attualmente caratterizzano il parco clinico nelle strutture ospedaliere. L’analisi è stata condotta partendo dagli aspetti che riguardano la trasmissione delle informazioni e delle immagini digitali, passando attraverso la necessità di un ambiente omogeno e funzionale all’interno del quale tali dati possano essere condivisi, fino ad arrivare all’esaminazione degli standard che rendono possibile una condivisione il più possibile diffusa delle informazioni in ambito ospedaliero. L’ultima parte della trattazione intende valutare una tecnica per l’allineamento dei profili del seno relativi ad una stessa paziente, ma provenienti da acquisizioni temporalmente distinte, con lo scopo di fornire uno strumento di diagnosi più efficace e funzionale.
Resumo:
Il Massiccio del Cansiglio-Monte Cavallo costituisce uno dei maggiori complessi carsici italiani; con questo lavoro si cerca di fornirne una caratterizzazione idrogeologica sulla quale poter basare una futura prova di tracciamento multiplo, al fine di definirne con precisione la configurazione interna. Lo studio è incentrato sul monitoraggio in continuo di portate, temperature e conducibilità elettrica compensata a 25 °C delle tre sorgenti maggiori del fiume Livenza, che sgorgano alla base del Massiccio, e su un monitoraggio idrochimico discontinuo di nove sorgenti (tra cui figurano anche le tre principali) e di quattro grotte rappresentanti le aree di infiltrazione concentrata. L’enorme volume d’acqua contenuto in questo grande acquifero carsico sembra riversarsi quasi completamente nelle aree sorgive situate al margine occidentale della pianura friulana, che cinge il lato orientale del Massiccio. In linea generale, queste acque, tipicamente carbonatiche, non hanno tempi di residenza lunghi all’interno del bacino di provenienza e fluiscono con portate elevate (> 1 m3/s) da ognuna delle tre sorgenti maggiori; nel periodo estivo (luglio-agosto) si registra una fase di svuotamento, assai accentuata al Gorgazzo, sorgente, tra le tre, posta più a nord. Molinetto, situata più a sud, pare differenziarsi maggiormente dalle altre due grandi sorgenti, Santissima e Gorgazzo, mentre le sorgenti minori sembrano, al di là di alcune caratteristiche peculiari, abbastanza simili tra loro. In particolare, il Molinetto mostra, in risposta agli eventi meteorici intensi, un incremento di portata meno netto, accompagnato da un evidente fenomeno di pistonaggio, almeno durante il periodo di morbida. Al contrario, il Gorgazzo risponde immediatamente alle forti precipitazioni piovose e le acque di pioggia viaggiano rapidamente dalla zona di infiltrazione alla sorgente stessa. La Santissima, sorgente con valori medi di portata maggiori e valori di conducibilità elettrica e temperatura mediamente inferiori alle altre, sembra dipendere da un sistema con caratteristiche intermedie tra quelle delle due sorgenti adiacenti. Emerge la complessità di questo vasto sistema carsico che sembra mostrare un grado di carsificazione in aumento da sud-ovest a nord-est. Sulla base dei dati raccolti si suppone che al suo interno possano svilupparsi due sottosistemi: il primo sembra che riversi la sua riserva idrica nelle sorgenti Molinetto e Santissima, il secondo accomuna invece la Santissima con il Gorgazzo, il quale ne costituisce un “troppo pieno”.
Resumo:
In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.
Resumo:
San Patrignano non rappresenta solo una comunità di recupero, ma anche un'azienda agricola che, al suo interno, vede realizzata l'intera filiera di produzione e lavorazione del latte vaccino. Uno dei prodotti di spicco, di grande importanza per l'economia locale, è certamente lo Squacquerone di Romagna Dop, un formaggio fresco, caratterizzato da particolari parametri chimico-fisici ed organolettici strettamente correlati al territorio d'origine. La ricerca, svoltasi in un periodo di dodici mesi, ha permesso di raccogliere un cospicuo quantitativo di dati, con l'obiettivo di valutare la qualità igienica, la sicurezza e la relazione con la materia prima utilizzata per la caseificazione. Le analisi sono state svolte secondo uno specifico piano di campionamento mensile, che prevedeva sia la determinazione della qualità microbiologica del latte utilizzato, prima e dopo la fase preliminare di pastorizzazione, sia la determinazione dei principali agenti degradativi e patogeni nel prodotto finito. Si sono volute evidenziare eventuali differenze in rapporto al periodo di raccolta del latte ed eventuali ripercussioni sulla qualità finale dello Squacquerone DOP. I risultati testimoniano l'ottima qualità del latte ottenuto dalle bovine presso la stalla San Patrignano, anche in relazione alla stagionalità. A conferma di ciò, la sporadica presenza di batteri degradativi, non in grado di influenzare in modo significativo la shelf life del prodotto Squacquerone, e l'assenza continuativa di batteri patogeni. Inoltre, i dati raccolti, in un'ottica di controllo qualità dell’azienda agricola, supportano l'identificazione dei punti critici del processo di produzione.
Resumo:
La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.
Resumo:
Il cambiamento climatico è un fenomeno in atto a livello globale, oggi scientificamente dimostrato, irreversibile nel breve periodo, i cui effetti hanno già provocato nel Mondo ingenti perdite sociali, economiche ed ecosistemiche. Il fattore di incertezza che permane riguarda il modo in cui evolverà il clima nel futuro, che a sua volta dipende dalle quantità di gas climalteranti che continueranno ad essere immesse in atmosfera, e di conseguenza la tipologia e la dimensione degli impatti che potranno verificarsi. Di fronte all’inevitabilità del problema e dei rischi che ne derivano, l’uomo può adattarsi, come per sua natura ha sempre fatto di fronte a condizioni esterne – anche climatiche – avverse. Le strategie di adattamento al cambiamento climatico, secondo un approccio bottom-up, mirano a ridurre la vulnerabilità dei sistemi esposti alle variazioni del clima, rendendoli più preparati ad affrontare il futuro. Oltre ai fattori climatici vi sono altri elementi che incidono in modo determinante sulla vulnerabilità: sono tutte le variabili interne e specifiche di un sistema che ne definiscono il grado di sensibilità verso un potenziale danno. Lo studio ha focalizzato l’attenzione su tre Comuni dell’Appennino Faentino al fine di capire come il cambiamento climatico influisce sulle criticità naturali già esistenti e sulla vita dell’uomo e le sue attività e, conseguentemente, quali azioni potranno essere messe in atto per limitare il pericolo e i potenziali danni.
Resumo:
L’interpretazione televisiva desta particolare interesse nella ricerca sull’interpretazione, perché questo contesto lavorativo dà una grande visibilità alla professione dell’interprete. Dato il considerevole aumento dell’importanza dei mezzi di comunicazione di massa e la loro capillarità, si impone una forma di trasferimento linguistico che renda fruibili al più vasto pubblico gli eventi trasmessi. Lo scopo di questo studio è presentare l’interpretazione televisiva nelle sue varie forme, soffermandosi poi sull’interpretazione simultanea e in particolare sull’analisi di due interpretazioni di uno stesso evento mediatico: il secondo dibattito televisivo del 2012 tra i due candidati alla presidenza degli Stati Uniti d’America: l’ex governatore del Massachusetts Mitt Romney e il presidente uscente Barack Obama. Il primo capitolo si basa sui dibattiti presidenziali statunitensi e illustra la storia dei dibattiti televisivi statunitensi, oltre al contesto e al discorso politico americano. Nel secondo capitolo viene analizzata l’interpretazione per la televisione. Dopo alcuni cenni storici, si passano in rassegna le diverse modalità di conversione linguistica utilizzate nel contesto televisivo. Il terzo capitolo verte sulla presentazione dei dati raccolti, la selezione e la trascrizione degli stessi. Il quarto capitolo contiene la vera e propria analisi delle rese interpretative in italiano dei dibattiti presidenziali americani scelti. Vengono prese in esame e confrontate le interpretazioni in italiano dello stesso dibattito trasmesse da due diversi canali: Rai News e Sky TG24. Il quinto capitolo contiene alcune considerazioni conclusive che si basano sul risultato dell’analisi dei dati. Nell’appendice viene invece presentata una parte del materiale analizzato, ovvero le trascrizioni segmentate e allineate del dibattito in originale e delle due interpretazioni.
Resumo:
La tesi descrive il T1 mapping, un metodo diagnostico non invasivo emergente per l’identificazione e la quantificazione della fibrosi atriale. Nel primo capitolo ci si è soffermati sulle caratteristiche del tessuto fibrotico e sulle cause che generano tale patologia tra cui la fibrillazione atriale. Nel secondo capitolo vengono descritte le tecniche non invasive comunemente più utilizzate per la valutazione della fibrosi tra cui: sistemi di mappaggio elettronanatomico e risonanza magnetica cardiaca con l’uso di mezzo di contrasto. Nel terzo capitolo sono approfondite tutte le sequenze necessarie per la costruzione di mappe di tempi T1 indagando anche sui fattori a cui la tecnica è più sensibile. Infine è stato dedicato ampio spazio a ricerche mediche sulla correlazione tra i tempi T1 delle camere cardiache, i potenziali elettroanatomici delle stesse e la probabilità di sviluppare fibrillazioni atriali recidive in alcuni pazienti sottoposti ad ablazione transcatetere.
Resumo:
Il percorso progettuale intrapreso ci ha permesso di confrontarci con un’analisi del territorio e della storia romana, che ne ha influenzato l’evoluzione. Considerando tutti i frammenti come parte di un sistema più grande dove non è possibile comprenderne uno se non attraverso gli altri, si è deciso di valorizzare con una strategia diversa con criteri ben precisi. Così viene ristabilita la rete di connessioni e relazioni che secondo noi più aiutano nella comprensione del sito e della sua storia, cercando di integrare nel contesto la varietà di sistemi archeologici, storici e culturali che caratterizzano il sito. I resti della città romana vengono trattati con approcci diversi, a seconda del grado di conoscenza e di esperienza che possiamo avere di ogni reperto. Per le tracce meno evidenti sono stati usati interventi più leggeri, reversibili, mentre per le rovine di cui abbiamo maggiori informazioni, sono stati proposti interventi più strutturati, che accompagnino il visitatore nella loro scoperta e comprensione. Le tracce di cui non si hanno molte informazioni, sono state trattate con segni molto più leggeri e reversibili, usando una strategia di lining out che comporti l’impiego di essenze, scelte in base ad associazioni con quello che vanno a simboleggiare. Per le emergenze archeologiche evidenti, è stato pensato un percorso interno che possa renderle fruibili, lasciando le rovine più intatte possibile, mentre l’intervento di musealizzazione più importante è destinato alla domus, che contiene i resti più rilevanti e quelli che necessitano una maggiore protezione.
Resumo:
Il percorso progettuale intrapreso ci ha permesso di confrontarci con un’analisi del territorio e della storia romana, che ne ha influenzato l’evoluzione. Considerando tutti i frammenti come parte di un sistema più grande dove non è possibile comprenderne uno se non attraverso gli altri, si è deciso di valorizzare gli elementi presenti con criteri ben precisi. Così viene ristabilita la rete di connessioni e relazioni che secondo noi più aiutano nella comprensione del sito e della sua storia, cercando di integrare nel contesto la varietà di sistemi archeologici, storici e culturali che caratterizzano il sito. I resti della città romana vengono trattati con approcci diversi, a seconda del grado di conoscenza e di esperienza che possiamo avere di ogni reperto. Per le tracce meno evidenti sono stati usati interventi più leggeri, reversibili, mentre per le rovine di cui abbiamo maggiori informazioni, sono stati proposti interventi più strutturati, che accompagnino il visitatore nella loro scoperta e comprensione. Le tracce di cui non si hanno molte informazioni, sono state trattate con segni molto più leggeri e reversibili, usando una strategia di lining out che comporti l’impiego di essenze, scelte in base ad associazioni con quello che vanno a simboleggiare. Per le emergenze archeologiche evidenti, è stato pensato un percorso interno che possa renderle fruibili, lasciando le rovine più intatte possibile, mentre l’intervento di musealizzazione più importante è destinato alla domus, che contiene i resti più rilevanti e quelli che necessitano una maggiore protezione.
Resumo:
Il lavoro di tesi è stato svolto presso l’azienda Ecosurvey® - 3000 Srl, con sede a Bologna. Ecosurvey® fornisce servizi e consulenze nel campo della geologia e delle scienze ambientali e opera in diversi ambiti, tra cui le bonifiche del suolo, del sottosuolo e delle acque sotterranee. L’inquinamento del suolo e del sottosuolo è, infatti, il contesto dello studio di questa tesi. Tale inquinamento è persistente: con riferimento ai fenomeni di contaminazione, il sottosuolo registra la storia industriale di un sito. L’approccio che tenta di coniugare i bisogni dell’uomo nella società con il rispetto dell’ambiente è lo sviluppo sostenibile, ovvero, secondo la World Commission on Environment and Development, uno sviluppo che soddisfa i bisogni del presente senza compromettere la possibilità delle generazioni future di soddisfare i propri. Tra i molti ambiti in cui si applica il concetto di sostenibilità, è da ricordare quello delle bonifiche dei siti contaminati. A tal proposito, l’United States Environmental Protection Agency nel 2008 ha introdotto il concetto di “green remediation” come la pratica del considerare tutti gli effetti ambientali di un’azione di bonifica, includendo nel processo opzioni in grado di minimizzarne l’impronta ambientale. Nel 2013 la società Battelle, con i servizi tecnici ambientali di U.S. Navy, e U.S. Army Corps of Engineers ha sviluppato un applicativo denominato SiteWiseTM per la valutazione degli impatti ambientali associati alle tecnologie di bonifica delle acque sotterranee. Nell’ambito di questa tesi, in riferimento ad un intervento di bonifica presso un impianto di produzione di bitumi in attività, contaminato da idrocarburi, idrocarburi aromatici e composti organo-clorurati, con l’applicativo sono stati esaminati i principali indicatori dell’impronta ecologica (emissioni di gas serra, di ossidi di azoto, di zolfo e di polveri sottili; consumi di acqua, suolo ed energia) per tre diverse opzioni di bonifica, effettuandone poi il confronto.
Resumo:
La tesi è incentrata sullo studio dei punti di singolarità di una curva nel piano proiettivo complesso. Nel caso in cui il punto sia regolare possiamo sfruttare il teorema delle funzioni implicite che ci permette di esplicitare il luogo di zeri di un'equazione implicita rispetto a una variabile. Quando questa ipotesi di regolarità viene meno per avere un risultato analogo diventa necessario utilizzare le serie di Puiseux. L'interpretazione algebrica del teorema di Puiseux risponde alla domanda di trovare un'estensione del campo delle serie di Laurent che sia algebricamente chiuso; prendendo un polinomio di grado positivo in K(x)*[y], mostreremo che esiste sempre una radice del polinomio appartenente a K(x)*. Il legame con l’interpretazione analitica risulta ora evidente: data infatti una curva nel piano complesso la sua equazione può essere vista come un particolare polinomio in K(x)*[y], esplicitare la y in funzione della x equivale appunto a trovare una radice in K(x)*. Nel primo capitolo abbiamo in primo luogo richiamato il risultato di Dini e parlato del luogo singolare di una curva, mostrando che quest'ultimo è un numero finito di punti. In seguito abbiamo introdotto il poligono di Newton, il quale è un insieme convesso del piano associato ad un polinomio in due variabili. Nel secondo capitolo abbiamo visto due formulazioni del teorema di Puiseux, entrambe le dimostrazioni di questo risultato sono costruttive; per renderle più scorrevoli abbiamo ritenuto opportuno costruire degli esempi che evidenziassero i vari passi.
Resumo:
Oggi il mercato mondiale dell'anidride maleica (AM) è in continua espansione grazie ad un numero sempre crescente di applicazioni finali e sviluppo di nuove tecnologie industriali. La AM viene impiegata nella produzione di resine poliestere insature e resine alchidiche e nella produzione di chemicals a più alto valore aggiunto. Il processo di sintesi è tutt’ora basato sull'ossidazione selettiva del benzene e del n-butano. Con l’aumento delle emissione di gas serra, legate all’impiego di materie di origine fossile e la loro continua diminuzione, si stanno studiando nuovi processi basati su materie derivanti da fonti rinnovali. Tra i vari processi studiati vi è quello per la sintesi di AM, i quali utilizzano come molecola di furfurale, 5-idrossimetilfurfurale e 1-butanolo; tutte queste presentano però il problema di un costo superiore rispetto alle molecole tutt’ora usate. Ad oggi una delle molecole ottenibili da fonti rinnovabili avente un costo competitivo alle materie derivanti da fonti fossili è il bio-etanolo. Essendo nota la possibilità di trasformare dell’etanolo in composti a 4 atomi di carbonio (C4) come 1-butanolo (reazione di Guerbet) e in 1,3- butadiene (processo Lebedev) su ossidi misti Mg/Si e la loro trasformazioni in AM, è’ dunque possibile ipotizzare un processo operante in fase gas che accoppi entrambi i processi. Lo scopo di questo lavoro di tesi è stato quello di effettuare uno studio su sistemi catalitici mediante differenti approcci impiantistici. Il primo ha previsto l’impiego di un sistema detto “a cascata” nel quale è stato accoppiato il sistema misto a base di Mg/Si/O, per la trasformazione dell’etanolo a C4, e il pirofosfato di vanadile (VPP), per l’ossidazione selettiva di quest’ultimi in AM. Il secondo approccio ha previsto l’impiego di un unico sistema multifunzionale in grado di catalizzare tutti gli step necessari. In quest’ultimo caso, i sistemi studiati sono stati il Mg2P2O7 ed un sistema costituito da VPP DuPont sul quale è stato depositato MgO. I catalizzatori sono stati caratterizzati mediante diffrattometria a raggi X, spettroscopia Raman e analisi dell’area superficiale mediante metodo BET, mentre i test catalitici sono stati condotti su un impianto di laboratorio con un reattore assimilabile ad un modello di tipo PFR.