499 resultados para giochi favorevoli e non favorevoli criterio di Kelly
Resumo:
Negli ultimi anni, lo sviluppo tecnologico e il progresso nel campo della nanotecnologia hanno portato ad un radicale cambiamento per i prodotti ceramici: oltre all’innovazione di formati e spessori, si è cominciato ad utilizzare trattamenti funzionali capaci di trasformare sistemi di rivestimento convenzionali in rivestimenti “intelligenti”. Questo ha comportato l’utilizzo di questi materiali, tradizionali ma “innovati” nelle loro prestazioni, in contesti in precedenza non considerati. L’efficacia di questi rivestimenti al momento della loro applicazione non rappresenta più una novità, mentre a livello normativo e procedurale vi è una grossa lacuna per quanto riguarda la valutazione della durabilità dei rivestimenti e la capacità di mantenimento nel tempo delle prestazioni iniziali. Per questo motivo, il presente lavoro è stato orientato verso uno studio riguardante la durabilità dei trattamenti di completamento applicati a superfici ceramiche, in considerazione della crescente importanza che essa ha assunto negli ultimi anni per la valutazione dei costi relativi al ciclo di vita. Quando si parla di durabilità si pensa all’essere durevole nel tempo e quest'ultimo è influenzato da una molteplicità di fattori che possono portare ad una condizione di degrado, legati sia all’ambiente in cui il materiale vive, sia all’invecchiamento del materiale stesso, rendendo la stima della durata un’operazione estremamente complessa. Il percorso di ricerca, partendo da una valutazione delle diverse metodologie normate e procedure presenti in letteratura, si è orientato verso l’analisi dei metodi rivolti alla valutazione della durabilità dei trattamenti superficiali, così da poter condurre un confronto sperimentale, tra i risultati conseguiti con l’applicazione delle metodologie proposte dalle norme ed il comportamento effettivo in servizio. Nella ricerca è stato importante definire i fattori che determinano i meccanismi di degrado e la modalità con cui applicarli in laboratorio.
Resumo:
Lactobacillus sakei è una specie altamente specializzata nella colonizzazione di prodotti a base di carne. Possiede un genoma relativamente ridotto nel quale, ad esempio, mancano le informazioni per la sintesi di 18 aminoacidi su 20, per i quali risulta dunque auxotrofo. La carne è quindi un substrato ottimale poiché tali aminoacidi sono facilmente disponibili. Una delle caratteristiche più interessanti di Lb. sakei, ed il motivo per cui viene largamente impiegato come coltura starter nell’industria dei salumi, è la sua capacità di permanere attivo e dominante per lungo tempo, anche quando le fonti principali di zuccheri sono esaurite. Inoltre tale microorganismo non è in grado di produrre sostanze dannose, come ad esempio le ammine biogene, ma bensì produce sostanze con attività antimicrobica: le batteriocine (sakacina). Questo elaborato ha costituito il primo tassello di un lavoro più ampio di selezione di ceppi di Lb. sakei da destinare all’utilizzo come colture starter. Sono state valutate alcune caratteristiche tecnologiche di ceppi di Lb. sakei, isolati da prodotti ottenuti tramite fermentazioni spontanee, e le loro performance sono state confrontate con ceppi di collezione e con un ceppo utilizzato a livello commerciale. In particolare si sono studiate le cinetiche di fermentazione a temperature diverse, variabili da 5°C a 40°C, e a differenti concentrazione di NaCl, da 0 a 8%. Per quanto riguarda la temperatura, tutti i ceppi sono stati in grado di sviluppare tra 5°C e 35°C, ma nessuno è riuscito a 40°C. I risultati hanno evidenziato una notevole variabilità delle performance fermentative tra 15 e 20°C. Per quanto riguarda la presenza di sale, tutti i ceppi sono cresciuti a tutte le concentrazioni di NaCl, anche a quella più elevata (8%), seppur con cinetiche diverse. Questi diversi pattern fermentativi, associati con altre caratteristiche che verranno valutate in futuro, determineranno i criteri di scelta per nuovi starter.
Resumo:
La metodologia convenzionalmente adottata per l’analisi e progettazione di reti acquedottistiche è la Demand Driven (DD), ovvero un’analisi guidata dalla domanda idrica dell’utenza che viene imposta, dal punto di vista matematico, nelle equazioni del modello idraulico; la struttura di risoluzione matematica di tale approccio è costituita dalle sole equazioni di continuità e del moto, le cui incognite sono i carichi idraulici da garantire per soddisfare la richiesta idrica (dato noto). Purtroppo la DD non è in grado di simulare, in modo ottimale, scenari in cui le pressioni in rete risultano essere inferiori rispetto a quelle richieste per un servizio di erogazione corretto. Dunque, per una completa analisi di una rete di distribuzione idrica, è utile adottare la metodologia Pressure Driven (PD), che si basa sullo stesso modello matematico utilizzato per l’analisi DD al quale viene aggiunta un’equazione che lega la portata erogata alle utenze e la perdita idrica al carico idraulico disponibile in corrispondenza dei nodi. In questo caso un ulteriore dato incognito, oltre al carico idraulico nei nodi ed alla portata nelle condotte della rete, risulta essere la portata effettivamente prelevata ai nodi oppure persa (leakage) dalla rete. Il presente lavoro di tesi ha portato alla calibrazione del modello di un distretto della rete di distribuzione idrica della città di Rapallo. Le simulazioni sono state eseguite attraverso il codice InfoWorks applicando sia la Demand Driven Analysis che risulta funzionale per l’ottenimento del modello calibrato, sia la Pressure Driven Analysis che non agisce sul bilancio complessivo della rete, ma interviene localmente nelle zone in cui le problematiche di funzionamento riscontrate riguardano le pressioni
Resumo:
In questo lavoro di tesi sono stati preparati elettrocatalizzatori metallici 3D di argento supportato su schiume di rame a cella aperta, impiegandoli nella riduzione selettiva del 5-idrossimetilfurfurale (HMF) a 2,5-bisidrossimetilfurano (BHMF). L’utilizzo di questi supporti consente di incrementare l’area superficiale a disposizione, rispetto ai supporti 2D. La preparazione delle schiume è stata effettuata utilizzando due metodi di deposizione: spostamento galvanico ed elettrodeposizione. Lo scopo del lavoro è valutare l’influenza del metodo di deposizione sull’attività catalitica, per questo motivo le schiume bimetalliche ottenute sono state confrontate a quelle monometalliche di rame e argento. Inoltre è stato studiato l’effetto della concentrazione di HMF sulle prestazioni dei catalizzatori, con l’obiettivo finale di ottenere un sistema attivo a concentrazioni industriali. Le schiume sono state sottoposte a cicli di prove catalitiche a concentrazione di HMF crescente 0,02 M, 0,05 M e 0,10 M e caratterizzate prima e dopo la sequenza di prove con analisi SEM-EDS, XRD, spettroscopia raman. Le soluzioni sono state analizzate mediante ICP, GC-MS, ESI-MS. Con lo spostamento galvanico si ha la crescita di dendriti, formate prevalentemente sui bordi, e agglomerati di particelle nelle zone interne, mentre per elettrodeposizione si ottiene minore formazione di dendriti e particelle mediamente più piccole. La presenza di argento come fase attiva non migliora la conversione rispetto alle schiume monometalliche, ma causa un aumento di selettività ed efficienza faradica. Incrementando la concentrazione di HMF tutti i campioni presentano un aumento di conversione e un decremento di selettività ed efficienza faradica. Il catalizzatore ottenuto per spostamento galvanico, mostra prestazioni migliori a concentrazioni elevate e nelle prove di stabilità non dà segni di disattivazione, al contrario della schiuma preparata per elettrodeposizione che risulta leggermente disattivata.
Resumo:
Un airbox deve fornire al motore sia aria pura, ovvero priva di particelle estranee (motivo per cui al suo interno viene collocato un elemento filtrante), che priva di gocce d’acqua, la cui presenza è possibile sia a causa della condensazione dell’umidità dell’aria aspirata, sia, in volume anche maggiore, in caso di pioggia, aspetto su cui si focalizzerà questo elaborato. Attualmente, per eliminare la presenza di queste particelle d’acqua, vengono praticati fori, più o meno grandi, sulla parete dell’airbox. Questa semplice tecnica, permette di eliminarla, ma causa anche una depressurizzazione. Per contrastare questo fenomeno, è già noto l’utilizzo di condotti elastici, normalmente chiusi o semichiusi, che, nel frattempo, permettono la lenta discesa gravitazionale dell’acqua. Questo sistema, però, non è in grado di sigillare il foro di scolo, provocando quindi anch’esso un calo della pressurizzazione del box. Inoltre, esso potrebbe intasarsi, rendendo inefficace lo scolo. In più, nel tempo, potrebbe sopraggiungere una perdita di elasticità, causando un peggioramento della funzionalità. Scopo del WOPI è eliminare tutti i precedenti inconvenienti nel modo più efficiente possibile.
Resumo:
Dall’inizio del XXI secolo, un’importante rivoluzione tecnologica è in corso nel campo delle neuroscienze: l’idea di base è quella di attivare/inibire con la luce un neurone che normalmente non è in grado di rispondere a tale stimolo. Si tratta di un approccio che integra metodi ottici e genetici per controllare l’attività di cellule eccitabili e di circuiti neuronali. La combinazione di metodi ottici con strumenti fotosensibili geneticamente codificati (optogenetica) offre l’opportunità di modulare e monitorare rapidamente un gran numero di eventi neuronali e la capacità di ricreare i modelli fisiologici, spaziali e temporali dell’attività cerebrale. Le tecniche di stimolazione ottica possono rispondere ad alcune delle problematiche legate alla stimolazione elettrica, fornendo una stimolazione più selettiva, una maggiore risoluzione spaziale e una minore invasività del dispositivo, evitando gli artefatti elettrici che complicano le registrazioni dell’attività neuronale elettricamente indotta. Quest’innovazione ha motivato lo sviluppo di nuovi metodi ottici per la fotostimolazione neuronale, tra cui la fotostimolazione neuronale nell’infrarosso, le tecniche di scansione del fascio e di fotostimolazione parallela, ciascuna con i suoi vantaggi e limiti. Questa tesi illustra i principi di funzionamento delle tecniche di fotostimolazione ed il loro utilizzo in optogenetica, presentandone i vantaggi e gli inconvenienti. Infine, nell’elaborato è presa in considerazione la possibilità di combinare i metodi di fotostimolazione con approcci di imaging ottico funzionale innovativi per un’indagine più ampia, mirata e completa del circuito neuronale. Sebbene siano necessari ulteriori studi, le tecniche di fotostimolazione in optogenetica sono quindi molto promettenti per la comprensione dei disturbi neuronali, svelando la codifica neurale e facilitando nuovi interventi per la diagnosi e terapia di malattie neurologiche.
Resumo:
La depolimerizzazione ossidativa della lignina è un processo promettente per la produzione di molecole aromatiche, attualmente ottenute prevalentemente per via petrolchimica. Dalla degradazione della lignina Kraft è possibile ottenere Vanillina, un prodotto ad elevato valore aggiunto impiegato nell’industria alimentare e farmaceutica.Recentemente è in fase di studio la depolimerizzazione ossidativa della lignina a Vanillina per via elettrochimica, un processo innovativo che permette l’impiego di condizioni di reazione blande, evitando l’utilizzo di O2. In questo lavoro di tesi è stato investigato come i parametri di reazione (tempo, temperatura e potenziale) influenzino l’attività catalitica di schiume di Ni a cella aperta calcinate a 500°C per 1 h, nella degradazione elettrochimica di una soluzione 10g/L di lignina Kraft, in NaOH 1M a 0,6V vs SCE. Si è osservato che la resa in Vanillina aumenta al decrescere del tempo di reazione, da 5h a 0,5h, con il massimo registrato dopo elettroosidazione per 1h. Queste condizioni limitano le reazioni parassite, che portano alla formazione di sottoprodotti tramite reazioni di ripolimerizzazione e ricondensazione dei prodotti. La temperatura non ha effetti significativi sulla produzione di Vanillina, quindi può essere conveniente lavorare a 25°C piuttosto che a 60°C. La calcinazione delle schiume di Ni attiva l’elettrodo per il processo studiato, infatti, a parità di condizioni, la resa in Vanillina ottenuta per la schiuma calcinata è maggiore rispetto alla Ni bare. Questa attività catalitica si manifesta anche a potenziali più bassi (0,5 V vs SCE, 1h 25°C), condizione in cui la schiuma di Ni non manifestava formazione di Vanillina.
Resumo:
L’uso di molecole stabilizzanti (polimeri, surfattanti o leganti organici) nel corso della sintesi di nanoparticelle in sospensione è fondamentale per permettere il controllo della dimensione della fase attiva e per evitare l’aggregazione dei colloidi nella fase di sintesi e deposizione del sol metallico sul supporto. Nonostante questo, molto spesso, l’effetto dello stabilizzante non è solo quello di modificare le proprietà morfologiche (ad esempio la dimensione) delle nanoparticelle supportata ma anche di cambiare l’interazione della fase attiva con i reagenti dal punto di vista elettronico e diffusionale. La messa a punto di metodologie di sintesi controllate ed efficaci è molto importante. Le tecniche di sintesi utilizzate per la preparazione di catalizzatori a base di metalli nanostrutturati sono innumerevoli, ma una metodologia particolarmente interessante, che garantisce piccole dimensioni delle nanoparticelle ed un’elevata distribuzione del metallo sul supporto, è la tecnica della sol-immobilization. In questo lavoro di tesi è stato studiato come il tipo e la quantità di stabilizzante influisce sulla dimensione della nanoparticella e sull’attività catalitica del catalizzatore, usando come reazione modello l’ossidazione selettiva dell’5-idrossimetilfurfurale (HMF) ad acido 2,5 furandicarbossilico (FDCA).
Resumo:
Le galassie passive sono sistemi dominati da popolazioni stellari vecchie, non mostrano tracce di formazione stellare (spettri compatibili con assenza di righe in emissione e caratterizzati da righe in assorbimento), e ci sono evidenze osservative che indicano che le galassie passive abbiano iniziato ad assemblare la loro massa stellare a z. Gli spettri delle galassie passive conservano traccia dei meccanismi fisici ed evolutivi della loro popolazione stellare. Laddove si hanno a disposizione spettri di buona qualità, ovvero che abbiano un rapporto segnale-rumore elevato, l’informazione contenuta in tali spettri può essere dedotta dalla misura dell’intensità di alcune righe in assorbimento. Burstein et al. (1984) hanno costruito un insieme di indici spettroscopici, chiamato sistema di indici di Lick, i quali misurano l’intensità delle principali righe in assorbimento (nella regione di lunghezze d’onda ottiche tra 4000-6000 Å), in termini di larghezza equivalente. in questa tesi è stato adottato il metodo degli indici di Lick per stimare i parametri evolutivi di un campione di galassie passive. Gli obiettivi principali di questa tesi sono due: 1.) studiare l’evoluzione col redshift dei parametri di età, metallicità totale e abbondanze relative di elementi α rispetto al ferro di un campione di galassie estratto spettroscopicamente dalla SDDS (Moresco et al., 2011). L’obiettivo finale è quello di dedurre informazioni sulla storia di formazione stellare delle galassie del campione. 2.) realizzare una simulazione per valutare la possibilità di misurare gli indici di Lick negli spettri di galassie passive che verranno osservate con la missione futura Euclid. Da questo studio è emerso un chiaro andamento evolutivo del campione in linea con quello previsto dallo scenario evolutivo del mass-downsizing, per il quale la SFH di una popolazione stellare è fortemente vincolata dalla massa della popolazione stessa, nel senso che al crescere della massa la formazione delle galassie passive si colloca in epoche progressivamente più remote, e l’assemblaggio della loro massa stellare avviene in tempi scala via via inferiori. Dalla simulazione è emerso un risultato molto importante che deriva dalla robustezza delle misure del D4000 e riguarda la possibilità di determinare il redshift di galassie a z ≥ 1.5 con Euclid.
Resumo:
Lo studio ha applicato la metodologia Life Cycle Assessment (LCA) con l’obiettivo di valutare i potenziali impatti ambientali derivanti dalla coltivazione dell’uva in due aziende a conduzione convenzionale del ravennate, denominate DZ e NG. Successivamente è stato applicato il modello RothC per simulare scenari sulla variazione del Soil Organic Carbon (SOC) e valutare in che misura le diverse pratiche agronomiche di gestione del suolo influenzino la variazione del SOC e la relativa emissione di CO2. Infine, i risultati dell’LCA sono stati integrati con quelli del modello RothC. Gli esiti dell’LCA indicano che, generalmente, sui diversi aspetti ambientali l’azienda DZ ha impatti superiori a quelli di NG soprattutto a causa di un maggiore utilizzo di fertilizzanti e pesticidi. Per quanto riguarda il contributo al riscaldamento globale (GWP), DZ mostra un impatto circa doppio di quello di NG. Il modello RothC ha individuato quali pratiche culturali aumentano il SOC mitigando le emissioni di CO2eq., in particolare: l’inerbimento perenne, la scelta di forme di allevamento con elevata produzione di residui culturali e l’utilizzo di ammendanti. L’integrazione dei valori dei due strumenti ha permesso di ottenere un bilancio globale di CO2eq. in cui le emissioni totali rispetto al GWP aumentano in DZ e diminuiscono in NG, portando a un impatto di DZ circa tre volte superiore rispetto a quello di NG. Fertilizzazione, potatura e lavorazione del suolo sono pratiche considerate nel calcolo del GWP in termini di consumo ed emissione dei processi produttivi, ma non come input di carbonio fornibili al suolo, determinando sovra o sottostima delle effettive emissioni di CO2eq. Questo studio dimostra l’utilità di incentivare la diffusione dell’applicazione integrata dei due strumenti nel settore viticolo, determinante per la comprensione e quantificazione delle emissioni di CO2 associate alla fase di coltivazione, sulla quale quindi indirizzare ottimizzazioni e approfondimenti.
Resumo:
Analisi termofluidodinamica di un accumulatore di calore che utilizza materiali a cambiamento di fase (PCM). I campi di velocità, di temperatura e di titolo, in regime termico non stazionario, relativi al singolo canale, vengono calcolati con un programma basato sul metodo dei volumi finiti, scritto in ambiente di lavoro Matlab. Vengono proposte diverse ottimizzazioni delle performance di accumulo termico, basate su un algoritmo genetico. Le ottimizzazioni sono fatte sia con differenti tipi di parametri di valutazione, sia con differenti gradi del polinomio che descrive la parete del canale; per ogni ottimizzazione l’algoritmo genetico è stato, quindi, utilizzato per determinare i parametri geometrici del canale ottimali. A partire dai risultati ottenuti dalle ottimizzazioni, vengono poi analizzate le prestazioni di canali della stessa geometria, ai quali viene aggiunta un’intelaiatura metallica. Vengono, infine, mostrati i risultati delle simulazioni numeriche fatte.
Resumo:
La sostenibilità (ambientale, economica e sociale) non rappresenta per le aziende un trend passeggero, ma una direzione da seguire per poter rispondere a norme sempre più stringenti e a consumatori sempre più attenti. La tesi illustra il concetto di sviluppo sostenibile, il quale ha segnato varie tappe della storia tra cui la pubblicazione nel 2015 dell’Agenda 2030 dalle Nazioni Unite e la definizione dei 17 obiettivi di sviluppo sostenibile per contrastare i problemi climatici. Vengono descritti i principali strumenti introdotti dall’Unione Europea per promuovere una crescita verde, utilizzando leve di intervento sia legislative che con incentivi, quali il Green Deal che mira a promuovere attività sostenibili che non generino emissioni di inquinanti, il decreto legislativo che regola l’informativa non finanziaria, il Piano d’Azione della Commissione Europea per finanziare la crescita sostenibile. Quello che le aziende comunicano sui propri siti web è una prima indicazione delle loro politiche in materia di sostenibilità, insieme ai report e alle certificazioni più formali. Lo scopo della tesi è valutare a che punto sono le aziende di diversi settori e dimensioni nella comunicazione di queste tematiche, analizzando un campione di esse, per mezzo di un form progettato per raccogliere e archiviare dati strutturati presi dai siti web. Grazie a questo si arriverà ad un punteggio per ciascuna di esse che rappresenta l’attuale livello comunicativo. Un problema attuale riscontrato è quello del greenwashing: una strategia di marketing, per dimostrare un impegno non reale nei confronti dell’ambiente agli occhi degli stakeholder e per farle guadagnare punti in reputazione e immagine aziendale. Il fine ultimo della tesi è quello di dimostrare che la sostenibilità è una scelta necessaria che va compiuta fin da subito, e non una questione solo delle grandi aziende o dei settori più “verdi”.
Resumo:
Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.
Resumo:
L'elaborato di tesi prende in esame il processo di produzione della linea “Pordenone”, in funzione nello stabilimento forlivese, di Electrolux S.P.A., azienda leader mondiale nella produzione di elettrodomestici e apparecchiature per l'uso domestico. Ragione del presente studio è l’acquisizione dell’opportuna comprensione del funzionamento dell’impianto al fine di individuare le inefficienze, le causali di fermata per la pianificazione della produzione o per gli interventi di manutenzione correttiva dei guasti, in modo da poter suggerire azioni di miglioramento. Per monitorare il processo di produzione è stato applicato all'oggetto di indagine lo studio del diagramma di Pareto, che ha permesso di evidenziare le principali causali all'origine della riduzione di produttività. Oltre a suggerire ipotesi di azioni di miglioramento, si è sottolineata l'importanza del coinvolgimento motivazionale degli operatori nelle procedure di lavoro, e l'opportunità di una maggiore implementazione del sistema informatico. Ragioni di carattere economico o di sicurezza dell'operatore, non hanno permesso di accogliere alcuni suggerimenti proposti, mentre sono state apportate migliorie nella produzione attraverso la riduzione delle fermate di lavoro. Nell'attuale clima di incertezza produttiva e di calo di domanda da parte di alcuni mercati, non è facile elaborare strategie di produzione innovative, tali da garantire la qualità del prodotto offerto e i risultati economici attesi, nel rispetto autentico dell'ambiente della collettività. Tuttavia, si ritiene che le informazioni generate da un adeguato monitoraggio del sistema offrano la possibilità di guardare avanti verso i progressi, piuttosto che concentrare la propria attenzione sulle opportunità mancate, e che le stesse informazioni possano trasformare l'agire dalla reattività (azione dopo il fatto) alla proattività (agire in anticipo) per migliorare efficacemente il processo di produzione.
Resumo:
Ogni anno le industrie alimentari che processano frutta e verdura generano un’enorme quantità di sottoprodotti, tra cui semi, bucce e sansa, che contengono grandi quantità di composti bioattivi come polisaccaridi, fibre alimentari e polifenoli. Per quanto riguarda il settore delle mele, uno dei frutti più consumati al mondo, solo il 70% di queste vengono consumate come fresche, mentre, il 25-30% viene scartato durante le fasi di produzione del succo, di sidro o di aceto di mele. Il principale sottoprodotto ottenuto da queste lavorazioni prende il nome di sansa di mela, la cui composizione è complessa (fibre alimentari, zuccheri fermentescibili, minerali, vitamine, fenoli, carotenoidi, ecc.) e dipende dalla varietà del frutto e dalla tecnologia di lavorazione. La sansa viene utilizzata in applicazioni alimentari e mangimistiche, ma anche nei sistemi di digestione anaerobica. Nonostante ciò, a causa della mancanza di tecniche di estrazione sostenibili, il valore di questi sottoprodotti è considerato trascurabile paragonato a quello di frutta e verdura processata. I metodi di estrazione convenzionali presentano alcune limitazioni in termini di tempo, energia e quantità di solvente utilizzato. L'estrazione assistita da ultrasuoni (UAE) con sonotrodo, tecnica innovativa non termica, permette di estrarre componenti bioattivi in brevissimo tempo, a bassa temperatura e con poco solvente. Tra i componenti bioattivi presenti nella sansa di mela, i composti fenolici rappresentano una classe varia ed interessante, in particolare per la loro azione positiva sulla salute umana. La messa a punto di un metodo completo e affidabile per l’estrazione e per la caratterizzazione dei composti fenolici bioattivi nella mela, utilizzando HPLC-ESI-TOF-MS come potente tecnica analitica, è stato uno degli obiettivi principali di tutta la sperimentazione.