582 resultados para retorinen metodi
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.
Resumo:
La mia tesi è una proposta di un glossario trilingue in italiano, inglese e croato, sulle infezioni sessualmente trasmissibili. Decrivo i metodi e gli approcci che ho utilizzato per creare il glossario con SLD Multiterm e analizzo la situazione della mediazione linguistica italiano-croata ospedaliera oltre il confine.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
Obiettivo di questa tesi è l'analisi e l'approfondimento di una tecnologia di nuova generazione che prende il nome di iBeacon. Basata sulla localizzazione di prossimità (wireless) a bassi consumi energetici e sviluppata da Apple, l'iBeacon sfrutta il protocollo Bluetooth Low Energy con il quale riesce ad utilizzare al meglio l'energia, permettendo alle batterie dei dispositivi che lo implementano di durare molto più a lungo. In questa argomentazione, vengono elencate e descritte alcune tecniche di comunicazione wireless a medio-corto raggio (Wi-Fi, Infrarosso, RFID, NFC, Bluetooth, BLE), che utilizzano lo scambio di informazioni senza fili, descrivendone una breve storia, dalla loro evoluzione nel tempo e nei modi, ad alcune caratteristiche di utilizzo. L'argomentazione poi focalizzerà l'attenzione sui metodi di localizzazione utilizzati dall'iBeacon, fornendone le funzionalità e le caratteristiche principali di questa nuova tecnologia e discutendone i vantaggi, i limiti tecnologici e di sviluppo del protocollo, fino a delineare alcune soluzioni per quanto riguarda le soglie di sicurezza e di privacy. L'analisi poi confronterà l'iBeacon con i maggiori antagonisti che utilizzano questa tecnica di microgeolocalizzazione (NFC, EddyStone). Si cercherà inoltre di delineare in maniera più dettagliata le specifiche tecniche che costituiscono questa nuova tecnologia di prossimità, dal protocollo di comunicazione alla componentistica hardware. Successivamente verrà descritto come un dispositivo iOS si interfaccia con un iBeacon, delineandone le API e il setup e mostrando i diversi passaggi per la creazione di un prototipo di applicazione. Si cercherà infine di pianificare, progettare e costruire una rete con iBeacon. Come ultima analisi, si prenderà in esame la relazione tra l'iBeacon e l'Internet of Things (IoT), e gli sviluppi che potrà portare all'evoluzione del Marketing di Prossimità, mostrando un esempio concreto di utilizzo efficace di questa innovativa tecnologia (EXPO 2015).
Resumo:
Tra tutte le tecniche sviluppate per il recupero di segnali, i metodi basati sul principio di rilevazione sincrona, utilizzati dagli amplificatori lock-in, sono largamente i più usati in tutti i campi della ricerca scientifica. Gli amplificatori lock-in sono strumenti utilizzati per rilevare e misurare segnali in ambienti in cui il rumore di fondo può essere di diversi ordini di grandezza più grande del segnale che si intende misurare. In questo lavoro viene presentato un metodo per realizzare un amplificatore lock-in digitale su scheda hardware NI ELVIS II+ e software LabVIEW. In seguito viene descritto come, attraverso test opportuni, sono state analizzate le performance del sistema realizzato e sono state confrontate con i sistemi disponibili commercialmente. Infine, l’amplificatore lock-in realizzato è stato poi utilizzato in un esperimento di misura spettroscopica dell’energia di gap di un campione di Germanio per mezzo dell’effetto fotoelettrico interno.
Resumo:
La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.
Resumo:
In questo lavoro si introducono i concetti di base di Natural Language Processing, soffermandosi su Information Extraction e analizzandone gli ambiti applicativi, le attività principali e la differenza rispetto a Information Retrieval. Successivamente si analizza il processo di Named Entity Recognition, focalizzando l’attenzione sulle principali problematiche di annotazione di testi e sui metodi per la valutazione della qualità dell’estrazione di entità. Infine si fornisce una panoramica della piattaforma software open-source di language processing GATE/ANNIE, descrivendone l’architettura e i suoi componenti principali, con approfondimenti sugli strumenti che GATE offre per l'approccio rule-based a Named Entity Recognition.
Resumo:
L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.
Resumo:
In questo lavoro di tesi si indaga come gli acceleratori di particelle si siano rivelati di fondamentale utilità nel settore medico-sanitario, risolvendo problematiche fisiche ed economiche legate alla produzione di radioisotopi. Per riuscire ad effettuare procedure terapeutiche e diagnostiche di qualità senza ricondursi a tecniche invasive, sta diventando sempre più importante disporre di ciclotroni nelle vicinanze delle strutture ospedaliere. Di fronte alla carenza di radionuclidi e alla necessità di produrre nuovi radiofarmaci, il mondo si sta muovendo per affiancare ai pochi reattori nucleari rimasti operativi, progetti nati dalla collaborazione di diversi centri di ricerca. In particolare in Italia è in corso un progetto, il TECHN-OPS, portato avanti da diverse sezioni INFN (compreso quella di Bologna), che si pone l’obiettivo di supplire al bisogno di 99m-Tc sfruttando una rete limitata di ciclotroni (che utilizzano bersagli di molibdeno arricchito) e lo sviluppo di metodi di riciclo di 100-Mo e di ottimizzazione delle varie fasi di produzione.
Resumo:
Scopo di questo studio è la determinazione delle strutture di età delle specie Mullus barbatus e Mullus surmuletus, pescate in Alto-Medio Adriatico durante le campagne di ricerca MEDITS e GRUND mediante la lettura degli anelli stagionali degli otoliti e delle frequenze di taglia. I campioni di otoliti sono stati prima estratti e poi lavati con sonicatore e acquisiti al computer. Sono state successivamente prese le misure dei radius ed è stata fatta una prima lettura degli anelli. Un subcampione è stato poi scelto per applicare altri due metodi di lettura degli anelli: la bruciatura e la colorazione, preceduta dal taglio dell’otolite. Sono stati poi levigati e lucidati gli otoliti dei giovanili per un conto degli annuli giornalieri. L’analisi dati, svolta tramite il software Rstudio, ha permesso di calcolare non solo le strutture di età, ma anche di osservare le distribuzioni dei campioni per classi di profondità e latitudine, confrontare le strutture di taglia e calcolare le chiavi di età-lunghezza, l’accrescimento somatico con le relazioni lunghezza-peso e l’equazione di Von Bertalanffy e l’accrescimento dell’otolite tramite i rapporti radius-taglia e radius-età e il tasso di incremento dei radius. Infine sono stati anche confrontati i tre metodi di lettura degli anelli al fine di stabilirne il migliore. Le due specie hanno mostrato una grande maggioranza di individui di 1 e 2 anni, soprattutto nella zona settentrionale e centrale dell’area di studio a profondità entro i 100 m. Differenze specifiche sono poi state trovate nel confronto tra le strutture di taglia e le relazioni lunghezza-peso e per il tasso di accrescimento K dell’equazione di Von Bertalanffy. Alta poi è la correlazione tra la misura dei radius e la taglia e l’età. Diverso è anche il tasso degli incrementi dei radius tra primo-secondo anno e secondo-terzo anno.
Resumo:
Introduzione: Le capacità coordinative possono essere dedotte dalle performance del movimento e possono subire un momentaneo peggioramento in seguito ad una rapida crescita in soggetti adolescenti. Attualmente la valutazione dei test motori è di tipo qualitativo o semi-quantitativo. Obiettivi: Somministrazione di test di valutazione della coordinazione motoria a soggetti adolescenti, in versione strumentata mediante sensori inerziali ed estrazione di parametri quantitativi. Valutazione della sensibilità di tali parametri ai gruppi di performance e variazione degli stessi in seguito ad uno scatto di crescita. Metodi: Ragazzi e ragazze di primo liceo (età media 15 anni) hanno indossato tre IMUs, posizionate sul tronco e attorno alle caviglie, ed hanno eseguito tre test per la valutazione della coordinazione motoria: il test della cicogna cieca, il test dell’accovacciamento, e una prova di tandem gait. Cinque mesi dopo i ragazzi cresciuti hanno ripetuto la prova di tandem gait. Risultati: I parametri scelti sono risultati sensibili alle differenze tra i gruppi di performance per due delle tre prove proposte (il test della cicogna e l’accovacciamento). Per la prova di tandem gait non sono state riscontrate differenze significative nei valori dei parametri. Conclusione: Dai risultati preliminari è emerso come i sensori inerziali possano essere utili nel guidare l’osservatore verso una valutazione oggettiva dei test motori, in particolare grazie al sensore posizionato sul tronco. Si ritiene necessario condurre prove ulteriori per standardizzare e migliorare i metodi proposti. Per la prova di tandem gait, per la quale non sono stati ottenuti risultati significativi, si suggerisce di continuare a seguire i ragazzi nella crescita, ed eventualmente aggiungere un task cognitivo alla prova.
Resumo:
Il problema dell'acidificazione degli oceani, conseguente ai cambiamenti climatici, è un processo ancora poco conosciuto. Per comprendere questo fenomeno, possono essere utilizzati degli ambienti naturalmente acidificati, considerati laboratori a cielo aperto. Lo scopo di questo lavoro di tesi è stato quello di utilizzare le fumarole presenti nell'isola di Ischia, per approfondire le dinamiche dei processi di acidificazione e per analizzare l'eventuale interazione tra pH e condizioni meteorologiche. I dati utilizzati, forniti dalla Stazione Zoologica “Anton Dohrn” di Napoli, erano serie di pH e di vento rilevate in continuo, in due aree, nord e sud rispetto all'isolotto del Castello Aragonese, e in tre stazioni lungo un gradiente di acidificazione. Tutto il lavoro è stato svolto a step, dove il risultato di un'analisi suggeriva il tipo e il metodo analitico da utilizzare nelle analisi successive. Inizialmente i dati delle due serie sono stati analizzati singolarmente per ottenere i parametri più salienti delle due serie. In seguito i dati sono stati correlati fra loro per stimare l'influenza del vento sul pH. Globalmente è stato possibile evidenziare come il fenomeno dell'acidificazione sia correlato con il vento, ma la risposta sembra essere sito-specifica, essendo risultato dipendente da altri fattori interagenti a scala locale, come la geomorfologia del territorio, le correnti marine e la batimetria del fondale. È però emersa anche la difficoltà nel trovare chiare correlazioni fra le due serie indagate, perché molto complesse, a causa sia della numerosa quantità di zeri nella serie del vento, sia da una forte variabilità naturale del pH, nelle varie stazioni esaminate. In generale, con questo lavoro si è dimostrato come utilizzare tecniche di analisi delle serie storiche, e come poter utilizzare metodi di regressione, autocorrelazione, cross-correlation e smoothing che possono integrare i modelli che prendono in considerazione variabili esogene rispetto alla variabile di interesse.
Resumo:
Con riferimento alla realizzazione di tunnel per servizi interrati, l’incertezza che contraddistingue il quadro geologico, oltre che incidere sui costi, riveste un ruolo chiave nella progettazione preliminare. Sebbene un’approfondita caratterizzazione geotecnica e geologica del volume di terreno inerente l’opera di scavo sia generalmente parte integrante del progetto, non è comunque possibile eliminare del tutto tali incertezze per via dell’estensione del volume interessato oltre che per la disomogeneità che sempre contraddistingue il terreno. Generalmente, investigazioni in corso d’opera e interventi di stabilizzazione devono essere previsti per contenere i costi di perforazione ed ottimizzare la progettazione. Ad esempio, tra i metodi di esplorazione geotecnica figurano i tunnel pilota, i quali sono in grado di garantire un’ottimale caratterizzazione del quadro geotecnico del sottosuolo. Con riferimento agli interventi di stabilizzazione del terreno, adottabili laddove una perforazione tradizionale non consentirebbe il tunnelling, vi è un vasta gamma di scelta. Pertanto, da una prima analisi delle problematiche connesse al tunnelling emerge che la stabilizzazione delle facce di scavo riveste un’importanza e un risconto applicativo di prim’ordine. Questa tesi si inserisce all’interno di un progetto che promuove un’innovativa ed economica tecnica di stabilizzazione dei tunnel per suzione tenendo quindi conto dell’influenza della suzione sulla coesione non drenata.
Resumo:
L’aumento delle concentrazioni del diossido di carbonio in atmosfera dovuto alla combustione dei combustibili fossili è una fonte di grande preoccupazione a causa del suo impatto sul clima globale. La biomassa è l’unica fonte rinnovabile a poter essere convertita in combustibili e, tra i metodi di conversione, la pirolisi produce un liquido (bio-olio) che presenta potenzialità come combustibile. Le alghe sono una biomassa di interesse, ma il bio-olio che si ottiene è caratterizzato da composti contenenti ossigeno, zolfo e azoto che ne riducono la qualità. Tali elementi possono essere eliminati attraverso la scissione (cracking) con zeoliti con la produzione di idrocarburi. L’obiettivo dello studio è stato quello di valutare le caratteristiche del cracking catalitico di tre microalghe: Arthrospira platensis, Botryococcus braunii e Desmodesmus communis per la produzione di idrocarburi. Le biomasse sono state pirolizzate a 500 °C e i vapori prodotti termicamente sono stati fatti passare nella zeolite dove subiscono il cracking. Sono state utilizzate due zeolite a diversa acidità: un pellet H-ZSM5 (SiO2/Al2O3=38) e un monolite a base di HZSM5 (SiO2/Al2O3=80) e sepiolite. Dal cracking si ottengono sei frazioni pirolitiche: char, coke, fase acquosa, bio-olio, frazione volatile e gas non condensabili. Le frazioni sono state caratterizzate tramite analisi elementari e molecolari e dai dati ottenuti sono stati calcolati i bilanci di N, C e del potere calorifico. Per tutte le alghe si ottiene un bio-olio con un elevato contenuto di carbonio e fortemente deossigenato, ma le rese sono relativamente basse. I prodotti che contengono una maggior frazione del carbonio della biomassa iniziale sono il char ed il coke, seguiti dalla fase organica e dai gas. La distribuzione dell’azoto è simile ma con una maggiore frazione nella fase acquosa. Entrambi i catalizzatori agiscono migliorando la qualità del bio-olio tramite la riduzione dei composti azotati ed ossigenati e formando idrocarburi monoaromatici, tipici delle benzine, e poliaromatici. Il monolite, con zeolite meno acida, produce una maggior frazione di bio-olio caratterizzato, però, da una minor percentuale di composti aromatici. Si ritiene che l’aumento delle rese del bio-olio e la valorizzazione dei sottoprodotti (biochar, fase acquosa) siano indispensabili per la sostenibilità del processo.