549 resultados para Sant’Agostino, Castelleale, efficienza energetica
Resumo:
Guidata dall'interesse per lo studio della fissione nucleare, per molto tempo la ricerca nel campo dei neutroni si è concentrata su energie medio-basse (E<20 MeV) mentre per la regione a più alte energie le informazioni risultavano scarse o mancanti. Recentemente, invece, si è sviluppato un nuovo interesse per i Neutroni di Alta Energia, utilizzabili nelle terapie mediche per la cura di tumori, e di grande importanza per la radioprotezione e la trasmutazione delle scorie radioattive derivanti da produzione di energia nucleare. Queste applicazioni richiedono precisi fasci di neutroni quasi-monoenergetici, con energie dai 20 a qualche centinaia di MeV, servono perciò misurazioni intese a determinare le caratteristiche del fascio e atte a ottenere valori precisi della sezione d'urto relativa ai processi innescati da neutroni veloci. La sezione d'urto di un certo processo nucleare si deduce dalla misura del numero di eventi acquisiti per unità di tempo da un rivelatore, conoscendo l'efficienza di questo, l'intensità del fascio che incide nel bersaglio e le caratteristiche del target. Diventa, quindi, determinante la conoscenza dell'intensità del fascio dei neutroni, anche nel caso di un intervallo energetico ampio, come quello prodotto al CERN dalla facility n_TOF, che possiede energie che vanno dal meV al GeV. Sulla base di queste motivazioni, in questo lavoro di tesi, si vuole proporre un prototipo semplice di rivelatore per Neutroni di Alta Energia e si presenta uno studio preliminare del primo test sotto fascio, focalizzando l'attenzione sulla massima energia misurabile.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
La sinergia tra diverse aree scientifiche svolge oggi un ruolo preminente nella risoluzione di problematiche molto complesse: in ambito medico, un massiccio intervento delle scienze fisico-matematiche ha portato, grazie alla ricerca sulle proprietà subatomiche (NMR), sulla funzione elettromeccanica tissutale (pace-makers) e sulla biocompatibilità di materiali innovativi, ad un completo rinnovamento e miglioramento delle terapie tradizionali, delineando nuove strategie terapeutiche. In questo quadro di attiva collaborazione si colloca la ricerca in ambito biomeccanico cardiovascolare che, approfondendo la funzionalità del cuore e dei vasi in condizioni normali e patologiche, propone soluzioni terapeutiche alternative all'approccio farmacologico, impensabili fino a pochi anni fa. Uno di questi ambiti è l'insufficienza cardiaca: al ventricolo incapace di produrre l'energia necessaria alla perfusione ematica viene associato un sistema di pulsazione meccanica che riduce il carico durante l'eiezione ed aumenta la perfusione coronarica in diastole. Tuttavia, benché l'efficacia della contropulsazione intra-aortica sia riconosciuta da decenni, alcune problematiche rimangono irrisolte: l'inapplicabilità su pazienti aritmici, l'eccessiva sollecitazione meccanica in pazienti vasculopatici, la complessità e l'alto costo dell'apparecchiatura. Questo lavoro affronta la validazione e la caratterizzazione di una soluzione terapeutica alternativa, di tipo completamente passivo, il cui effetto non è basato sulla somministrazione di energia meccanica dall'esterno, attraverso la pulsazione, ma sull'adattamento di impedenza biomeccanica tra la sorgente elastica pulsatile (il ventricolo) ed il carico (l'aorta). Per verificare l'ipotesi funzionale è stato realizzato un sistema contrattile che simulasse diversi livelli di insufficienza ventricolare ed un sistema vascolare con resistenza idraulica ed elastanza variabili. Sono stati rilevati i parametri fisiologici (pressioni, flusso, potenza ed efficienza) nelle diverse condizioni di accoppiamento biomeccanico e si sono ripetuti i rilievi inserendo il dispositivo di contropulsazione passiva. La validazione sperimentale ha prodotto risultati coerenti con quanto atteso ed è stata indispensabile per l'ottenimento, da parte del Comitato Etico, dell'autorizzazione per la sperimentazione clinica del sistema in oggetto.
Resumo:
In questo lavoro di tesi è presentata la misura con il rivelatore ALICE del flusso triangolare, v3, di pioni, kaoni e protoni prodotti in collisioni PbPb a LHC. Il confronto di v3 con le previsioni di modelli idrodinamici permette di vincolare maggiormente le assunzioni sulle condizioni iniziali del sistema presenti nei diversi modelli ed estrarre una stima maggiormente precisa delle proprietà del mezzo come la viscosità. La misura è effettuata nella regione di pseudorapidità centrale sui dati raccolti da ALICE nel 2010 e 2011 e utilizza una tecnica di identificazione basata sia sulla misura della perdita di energia specifica, con la camera a proiezione temporale (TPC), sia la misura della velocità con il sistema a tempo di volo (TOF). La combinazione di entrambe le tecniche permette di separare le diverse specie in un intervallo esteso di impulsi con elevata efficienza e purezza. Per la misura del piano di reazione è stato utilizzato il rivelatore VZERO che misura la molteplicità delle particelle cariche in una regione di pseudorapidità disgiunta da quella in cui è misurato v3. La misura ottenuta è confrontata con le previsioni di modelli idrodinamici attualmente più utilizzati.
Resumo:
L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.
Resumo:
Il Dimetilsolfoniopropionato (DMSP) è un metabolita secondario prodotto da vari organismi marini, tra cui molte microalghe. Ad oggi pochi studi riguardano gli effetti dei fattori ambientali sulla produzione di DMSP nelle microalghe tossiche, tuttavia si ipotizza che la carenza di azoto (N-dep) possa influire sulla produzione di tossine e DMSP. In questo lavoro è stata indagata nella dinoflagellata Ostreopsis cf. ovata: la presenza e l’andamento del DMSP lungo tutte le fasi di crescita; i possibili effetti di differenti condizioni di crescita (i.e. bilanciata e N-dep) sulla produzione del metabolita e delle tossine. La scelta della dinoflagellata è giustificata dalle sue frequenti fioriture dannose nel Mediterraneo e dall’osservazione, in studi pregressi, di una comunità batterica associata ai suoi blooms in grado di utilizzare il DMSP come fonte energetica. Lo studio mostra per la prima volta da parte di O. cf ovata la produzione del DMSP, riportando un trend temporale simile nelle due condizioni. Si evidenzia: un minimo a fine fase esponenziale; un massimo nella prima fase stazionaria; una riduzione al termine della fase stazionaria. Il confronto fra le due condizioni evidenzia un effetto positivo di N-dep nella produzione di DMSP, evidenziato anche dal maggior tasso di produzione, che potrebbe avvenire per: utilizzare il DMSP rispetto ad altri osmoliti azotati; rilasciare nell’ambiente composti carboniosi e sulfurei, prodotti a seguito dello stress cellulare. I risultati indicherebbero come N-dep possa interferire nella sintesi di tossine e DMSP in maniera opposta, non per competizione diretta del nutriente nei processi di sintesi, ma a seguito dei cambiamenti fisiologici della microalga dovuti alla carenza nutrizionale. Infine la produzione di DMSP da parte della microalga conferma l’instaurarsi di una fase d’interazione mutualistica con i batteri ad essa associati facilitata dal DMSP, importante per lo sviluppo della popolazione algale e dei conseguenti rischi sanitari ed ecosistemici.
Resumo:
I rifiuti rappresentano un’opportunità di crescita sostenibile in termini di riduzione del consumo di risorse naturali e di sviluppo di tecnologie per il riciclo di materia ed il recupero energetico. Questo progetto di ricerca si occupa di valutare, attraverso l’approccio dello studio del ciclo di vita, la valorizzazione energetica di una particolare categoria di rifiuti: i fanghi derivanti dalla depurazione delle acque. Si è studiata la valorizzazione dei fanghi attraverso l’applicazione del Thermo Catalytic Re-forming (TCR)®, tecnologia che consente di trasformare i fanghi in un carburante per la produzione di energia elettrica (bioliquido). Le valutazioni sono effettuate per una linea di processo generale e due configurazioni progettuali declinate in due scenari. Il caso di studio è stato riferito al depuratore di S. Giustina (Rimini). Per la linea di processo, per ognuna delle configurazioni e i relativi scenari, è stato compilato il bilancio energetico e di massa e, conseguentemente, valutata l’efficienza energetica del processo. Le regole della Renewable Energy Directive (RED), applicate attraverso lo strumento ‘BioGrace I’, permettono di definire il risparmio di gas serra imputabile al bioliquido prodotto. I risultati mostrano che adottare la tecnologia TRC® risulta essere energeticamente conveniente. Infatti, è possibile ricavare dal 77 al 111% del fabbisogno energetico di una linea di processo generale (linea fanghi convenzionale e recupero energetico TCR®). Questo permette, quindi, di ricavare energia utile al processo di depurazione. La massima performance si realizza quando la tecnologia si trova a valle di una linea di trattamento fanghi priva di digestione anaerobica e se il biochar prodotto viene utilizzato come combustibile solido sostitutivo del carbone. La riduzione delle emissioni imputabile al bioliquido prodotto va dal 53 al 75%, valori che soddisfano il limite definito dalla RED del 50% di riduzione delle emissioni (2017) per ogni configurazione progettuale valutata.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
In uno scenario in cui il tema dell’emergenza abitativa recita un ruolo da protagonista nelle politiche europee per la casa, il recupero del patrimonio edilizio esistente si pone come una delle strategie più efficaci per rispondere alla problematica dell’abitare sociale. Nel contesto di grave crisi economica ed emergenza energetica che caratterizza la società contemporanea, il valore del retrorfit sta rapidamente trasformando l’approccio progettuale tradizionale, definendo un concetto basilare per la sostenibilità del domani: “fare meglio con meno”. L’oggetto di questa tesi è la riqualificazione energetica e funzionale di un edificio popolare situato a Bologna, nel quartiere Navile, zona Bolognina. Il fabbricato si innesta in un isolato a corte che contraddistingue questa zona, caratterizzato da una pianta ad “L” e da sistemi costruttivi tipici della ricostruzione del primo periodo del secondo dopoguerra. L’ipotesi presentata è il risultato dell’interazione di strategie progettuali mirate alla risoluzione delle problematiche di tipo funzionale ed energetico che affliggono il complesso. L’intervento è caratterizzato dall’ampio impiego di tecnologie leggere a “secco”, utilizzate sia per l’integrazione dell’edificio con aggiunte volumetriche, che per la realizzazioni di elementi progettuali ex-novo.
Resumo:
ABITARE NUOVI SPAZI tratta della riqualificazione funzionale ed energetica di un edificio residenziale situato all’interno dell’area costruita secondo il Piano per l’Edilizia Economica e Popolare di Bologna durante gli anni ’70 e ’80. Il caso studio si trova nella zona Corticella del quartiere Navile, a nord del centro storico di Bologna. Le principali criticità riscontrate a livello urbano riguardano la frammentazione degli spazi pubblici e la scarsa qualità dei percorsi ciclo-pedonali. Nelle proposte d’intervento è stata quindi prestata particolare attenzione alla qualità degli spazi e ai percorsi esterni, vere e proprie matrici per la riqualificazione del tessuto esistente. È possibile ricondurre tali obiettivi a tre punti fondamentali: liberare, ordinare, e connettere lo spazio. Passando alla scala architettonica, le principali criticità riguardano il taglio degli alloggi, l’illuminazione e le prestazioni energetiche dell’involucro edilizio. Tenendo conto delle preesistenze, l’approccio al progetto è stato quello di conservare ed adeguare, nonché di conferire all’edificio una forte identità attraverso un progetto architettonico che preveda la definizione di nuovi spazi sia all’interno che all’esterno dell’involucro edilizio esistente. Questi si manifestano sia con l’aggiunta di importanti volumetrie che si relazionano con l’edificio come dei veri e propri “parassiti”, sia con demolizioni di alcune parti che permettono all’ambiente esterno di entrare all’interno della struttura.
Resumo:
"Abitare nuovi spazi" tratta della riqualificazione funzionale ed energetica di un edificio residenziale situato all’interno dell’area costruita secondo il Piano per l’Edilizia Economica e Popolare di Bologna durante gli anni ’70 e ’80. Il caso studio si trova nella zona Corticella del quartiere Navile, a nord del centro storico di Bologna. Le principali criticità riscontrate a livello urbano riguardano la frammentazione degli spazi pubblici e la scarsa qualità dei percorsi ciclo-pedonali. Nelle proposte d’intervento è stata quindi prestata particolare attenzione alla qualità degli spazi e ai percorsi esterni, vere e proprie matrici per la riqualificazione del tessuto esistente. È possibile ricondurre tali obiettivi a tre punti fondamentali: liberare, ordinare, e connettere lo spazio. Passando alla scala architettonica, le principali criticità riguardano il taglio degli alloggi, l’illuminazione e le prestazioni energetiche dell’involucro edilizio. Tenendo conto delle preesistenze, l’approccio al progetto è stato quello di conservare ed adeguare, nonché di conferire all’edificio una forte identità attraverso un progetto architettonico che preveda la definizione di nuovi spazi sia all’interno che all’esterno dell’involucro edilizio esistente. Questi si manifestano sia con l’aggiunta di importanti volumetrie che si relazionano con l’edificio come dei veri e propri “parassiti”, sia con demolizioni di alcune parti che permettono all’ambiente esterno di entrare all’interno della struttura.
Resumo:
Il progetto di tesi elaborato tratta uno dei temi più attuali nell’ambito architettonico, l’efficienza energetica degli edifici. La tesi, sviluppata all’interno del Laboratorio di Laurea in Architettura Sostenibile, tratta un caso peculiare, in quanto riguarda il recupero di un’opera incompiuta, un comparto di 24 alloggi di Social Housing situato nella città di Rovigo. Il proprietario dell’impianto, l’ente pubblico per l’edilizia sociale ATER, ha posto delle direttive qualitative e quantitative per portare a compimento l’opera. Preso atto di queste disposizioni, e a seguito di accurate analisi di tipo tecnico, morfologico e demografico, sono state definite accurate strategie progettuali, riguardanti la definizione di alloggi idonei alla richiesta dell’ente e alla conformazione demografica della città, il recupero della preesistenza e lo sviluppo di una architettura energicamente efficiente.
Resumo:
L’elaborato affronta i temi dello sviluppo sostenibile, dell’affrancamento dalle risorse fossili e della produzione di energetica capillare. Nell’ambito di un progetto di ricerca mirato allo sviluppo di un gassificatore downdraft di tipo Imbert da 20kWe alimentato a legno cippato, viene qui presentato l’avviamento della campagna sperimentale su un impianto pilota. Particolare attenzione viene rivolta alla biomassa e ai prodotti di gassificazione (char, tar e syngas), le cui caratterizzazioni hanno contribuito all’evoluzione impiantistica e protocollare, interamente descritte nel testo.
Resumo:
Homeorhetic Assemblies indaga le potenzialità tettoniche ed architettoniche derivanti dallo studio dei sistemi biologici decentralizzati, dei loro comportamenti e delle relazioni dinamiche con la colonia in termini di processi adattativi e costruttivi continui nel tempo. La ragione di questo interesse è radicata nei principi dell’ecologia applicata al design ed alle tecnologie di fabbricazione contemporanee, che vanno al di là della mera imitazione formale: ci si è quindi chiesto come raggiungere una spazialità complessa ed articolata, omogeneità di prestazioni ed una struttura continua caratterizzata da molti elementi aventi le stesse caratteristiche di forma e materiale. L’ecologia è lo studio di un insieme di economie, ovvero rapporti di scambio, tra un organismo ed il suo ambiente e l’efficenza dei pattern distributivi che derivano da queste relazioni sono fondamentali al fine del successo evolutivo del sistema stesso. I sistemi su cui ci si è concentrati sono caratterizzati dalla capacità di creare strutture a buon mercato (con l’uso di istruzioni semplici ed un unico materiale) e ad elevato grado di complessità ed efficienza, armonizzando l’aspetto formale con l’organizzazione materica e fisiologica. Il modello di comportamento considerato riguarda le dinamiche alla base della creazione degli alveari naturali creati dalle api millifere. Queste caratteristiche sono state codificate nella programmazione di un sistema multi agente composto da agenti autonomi in grado di interagire in un ambiente eterogeneo e capaci di depositare selettivamente elementi in una struttura composta da springs e particles, periodicamente stabilizzata ed ottimizzata. In un tale sistema, a priori sono note solo le relazioni locali per i singoli agenti ed il comportamento strutturale generale, mentre gli oggetti e gli eventi emergono in maniera non predeterminata come risultato di queste interazioni nello spazio e nel tempo. I risultati appaiono estremamente complessi ed eterogenei nella loro organizzazione spaziale, pur emergendo un set di elementi identificabili nella loro specifica singolarità (come ad esempio superfici, colonne, capriate etc...) ma che generano strutture continue, e creano grande differenziazione di densità e di disposizione dei singoli elementi all’interno della struttura. La ridondanza strutturale ottenuta è una scelta deliberata e permessa dall’automatizzazione della fase di costruzione attraverso la programmazione di robot, tramite i quali si intende realizzare un prototipo fisico delle strutture ottenute.
Resumo:
La sperimentazione aveva il fine di valutare l’attività antimicrobica di oli essenziali di timo e cannella in hamburger di bovino. In primo luogo è stata fatta una caratterizzazione di questi oli mediante analisi GC-MS-SPME, da cui è emerso che le molecole a maggiore attività antimicrobica (rispettivamente timolo/carvacrolo ed aldeide cinnamica) erano presenti a concentrazioni piuttosto basse. Successivamente sono state valutate MIC e MBC nei confronti di microrganismi patogeni di interesse alimentare. Infine, tali oli sono stati incapsulati in chitosano per valutare un eventuale effetto sinergico e favorire un rilascio graduale degli oli. Il processo di incapsulazione ha mostrato una efficienza piuttosto bassa (solo il 25% dell’olio aggiunto veniva effettivamente incapsulato), per cui non è stato possibile utilizzare nanoparticelle “caricate” con quantità di olio tali da inibire significativamente lo sviluppo microbico in hamburger di carne bovina. Infatti, l’effetto sinergico chitosano/olio essenziale è stato in grado di ridurre solo lievemente il carico di enterobatteri durante la conservazione refrigerata, soprattutto nei campioni confezionati in atmosfera modificata. Una prova effettuata utilizzando i due oli in forma libera ad elevata concentrazione (1000 mg/kg), la cannella si è dimostrata molto più efficace del timo, riducendo il carico cellulare di enterobatteri a fine shelf-life, con effetto più evidente nei campioni di hamburger confezionati in atmosfera modificata (riduzione di un ciclo logaritmico). Inoltre, essa è risultata in grado di ridurre lievemente lo sviluppo di lieviti e funghi. Concludendo, gli oli essenziali usati in questa sperimentazione, poiché caratterizzati da una bassa concentrazione di molecole ad elevata attività antimicrobica (timolo/carvacrolo per il timo, aldeide cinnamica per la cannella), non sono stati in grado di prolungare in modo significativo la shelf-life di hamburger di bovino, nemmeno se incapsulati in chitosano.